856 resultados para Algoritmos experimentais
Resumo:
O presente avalia a qualidade da remoção de tecido pulpar após o preparo químico-cirúrgico realizado com a técnica da lima única, descrita por Ghassan Yared. Ainda não há publicado pesquisa sobre os resultados desta técnica. Este estudo compara o percentual de tecido pulpar remanescente em canais radiculares ovais e circulares de incisivos inferiores recém-extraídos que possuíssem polpa viva e armazenados em formol a 10%. Foram comparadas duas técnicas: ProTaper Universal e a técnica da lima única F2. Após uma rigorosa seleção, quarenta e oito dentes com polpa viva que possuíam indicação de extração, foram preparados, classificados em canais ovais e circulares, separados aleatoriamente em 4 grupos e instrumentados com as duas técnicas. O grupo controle, com 12 espécimes, não recebeu nenhum tipo de intervenção. G1 (n=12), canais ovais, instrumentados com a técnica ProTaper Universal; G2 (n=12), canais ovais instrumentados com a técnica da lima única F2; G3 (n=12), canais circulares instrumentados com a técnica ProTaper Universal; G4 (n=12), canais circulares instrumentados com a técnica da lima única F2. Então, seções transversais foram preparadas para avaliação histológica. A análise da quantidade de tecido pulpar remanescente foi avaliada digitalmente. A análise preliminar dos dados brutos em conjunto de todos os grupos experimentais revelou um padrão de distribuição normal por meio do uso do teste Kolmogorov-Smirnov. A análise foi realizada, e os dados brutos foram avaliados através de métodos não-paramétricos: Teste H Kruskal-Wallis. O valor percentual mínimo de tecido remanescente foi de 0% e o máximo de 37,78% entre todos os grupos. Os valores relativos a quantidade de tecido pulpar remanescente variaram entre 0 a 43.47% m2. Os resultados do Teste H Kruskal-Wallis não revelaram diferenças entre as seções mais apicais (p > 0.05). Entretanto, foi encontrada diferença significante entre as seções mais apicais e a seção do terço médio (p < 0.05). Também foram encontradas diferenças significantes quando canais circulares foram comparados com canais ovais independente da técnica de instrumentação utilizada (p < 0.05). Porém, entre as duas técnicas de instrumentação estudadas, tanto nos canais ovais quanto para os os canais circulares, não houve diferença estatística significante (p > 0.05). A proposta deste estudo é a de fazer uma reflexão sobre a real necessidade de um grande número de instrumentos para o total preparo de canais radiculares, uma vez que nenhuma das técnicas foi capaz de debridar por completo o espaço do canal radicular.
Resumo:
Um código computacional para escoamentos bifásicos incorporando metodologia híbrida entre oMétodo dos Elementos Finitos e a descrição Lagrangeana-Euleriana Arbitrária do movimento é usado para simular a dinâmica de um jato transversal de gotas na zona primária de quebra. Os corpos dispersos são descritos por meio de um método do tipo front-tracking que produz interfaces de espessura zero através de malhas formadas pela união de elementos adjacentes em ambas as fases e de técnicas de refinamento adaptativo. Condições de contorno periódicas são implementadas de modo variacionalmente consistente para todos os campos envolvidos nas simulações apresentadas e uma versão modificada do campo de pressão é adicionada à formulação do tipo um-fluido usada na equação da quantidade de movimento linear. Simulações numéricas diretas em três dimensões são executadas para diferentes configurações de líquidos imiscí veis compatíveis com resultados experimentais encontrados na literatura. Análises da hidrodinâmica do jato transversal de gotas nessas configurações considerando trajetórias, variação de formato de gota, espectro de pequenas perturbações, além de aspectos complementares relativos à qualidade de malha são apresentados e discutidos.
Resumo:
Sono e imunidade parecem apresentar uma relação de reciprocidade. A ativação do sistema imune altera o padrão de sono e distúrbios do sono podem afetar a função imune. Além disso, é bem descrito que a privação de sono paradoxal (PSP) leva à hiperalgesia e o tratamento com fármacos clássicos, como opióides ou antidepressivos tricíclicos, não é capaz de reverter este quadro. Neste trabalho, avaliamos se a PSP afetaria a resposta inflamatória e a sobrevida em ratos e se o tratamento com um análogo sintético de lipoxinas (ATL-1) seria capaz de reverter a hiperalgesia induzida pela PSP. Todos os protocolos experimentais foram previamente aprovados pelo Comitê de Ética para o Uso de Animais, da UERJ (CEUA/032/2010). Ratos Wistar machos foram submetidos a 96 h de PSP, induzidas pelo método de plataforma única (PU) ou de múltiplas plataformas modificado (MPM). Após 96 h de PSP os animais foram submetidos ao modelo da bolha de ar ou pleurisia utilizando-se a carragenina como agente flogístico, ou ainda a PSP foi aplicada antes ou após a indução de um modelo de ligação e perfuração do ceco (CLP). Quatro horas após a injeção de carragenina os animais apresentaram um aumento no recrutamento de leucócitos para a cavidade da bolha, porém não houve diferença entre animais PSP e controles. O número total de leucócitos no plasma não se alterou após a injeção de carragenina. Na pleurisia, os animais PSP apresentaram um aumento nos níveis de IL-6, IL-1β e TNF-α no plasma, enquanto apenas IL-1β e IL-6 estavam aumentados no exsudato pleural dos animais que receberam carragenina. O padrão de recrutamento de leucócitos para o local da injúria foi bastante semelhante entre os animais controle e PSP 2 h, 4 h e 24 h após a injeção de carragenina. Houve um aumento progressivo com o tempo, apresentando um pico em 24 h, no entanto, não foi observada diferença significativa na resposta dos grupos PSP. A PSP aplicada antes ou após a indução do CLP reduziu a sobrevida dos animais, mas não alterou o acúmulo de neutrófilos, nos dois protocolos. Quando a PSP foi aplicada antes do CLP, os níveis séricos de IL-6 estavam aumentados nos grupos PSP e PSPCLP, porém quando a PSP foi aplicada após o CLP, ambas IL-6 e IL-1β estavam aumentadas nos grupo PSPCLP. O efeito do tratamento com ATL-1 (10 g/kg, i.v.) na hiperalgesia induzida pela PSP foi determinado através do teste da formalina. O análogo reduziu o número de comportamentos relacionados à dor em animais PSP e controles na fase inflamatória do teste. Nossos resultados demonstraram que a PSP por 96 h aumentou os níveis plasmáticos de citocinas, reduziu a sobrevida dos animais, contudo não foi capaz de alterar o recrutamento de leucócitos frente a um estímulo inflamatório ou infeccioso. O aumento de mediadores inflamatórios observado nesses animais pode estar relacionado à hiperalgesia em animais PSP, uma vez que o tratamento com o ATL-1 reverteu esse efeito, possivelmente através de mecanismos envolvendo sua ação anti-inflamatória.
Resumo:
Esta Dissertação irá apresentar a utilização de técnicas de controle nãolinear, tais como o controle adaptativo e robusto, de modo a controlar um sistema de Eletroestimulação Funcional desenvolvido pelo laboratório de Engenharia Biomédica da COPPE/UFRJ. Basicamente um Eletroestimulador Funcional (Functional Electrical Stimulation FES) se baseia na estimulação dos nervos motores via eletrodos cutâneos de modo a movimentar (contrair ou distender) os músculos, visando o fortalecimento muscular, a ativação de vias nervosas (reinervação), manutenção da amplitude de movimento, controle de espasticidade muscular, retardo de atrofias e manutenção de tonicidade muscular. O sistema utilizado tem por objetivo movimentar os membros superiores através do estímulo elétrico de modo a atingir ângulos-alvo pré-determinados para a articulação do cotovelo. Devido ao fato de não termos conhecimento pleno do funcionamento neuro-motor humano e do mesmo ser variante no tempo, não-linear, com parâmetros incertos, sujeito a perturbações e completamente diferente para cada indivíduo, se faz necessário o uso de técnicas de controle avançadas na tentativa de se estabilizar e controlar esse tipo de sistema. O objetivo principal é verificar experimentalmente a eficácia dessas técnicas de controle não-linear e adaptativo em comparação às técnicas clássicas, de modo a alcançar um controle mais rápido, robusto e que tenha um desempenho satisfatório. Em face disso, espera-se ampliar o campo de utilização de técnicas de controle adaptativo e robusto, além de outras técnicas de sistemas inteligentes, tais como os algoritmos genéticos, provando que sua aplicação pode ser efetiva no campo de sistemas biológicos e biomédicos, auxiliando assim na melhoria do tratamento de pacientes envolvidos nas pesquisas desenvolvidas no Laboratório de Engenharia Biomédica da COPPE/UFRJ.
Resumo:
As biometrias vêm sendo utilizadas como solução de controle de acesso a diversos sistemas há anos, mas o simples uso da biometria não pode ser considerado como solução final e perfeita. Muitos riscos existem e não devem ser ignorados. A maioria dos problemas está relacionada ao caminho de transmissão entre o local onde os usuários requerem seus acessos e os servidores onde são guardados os dados biométricos capturados em seu cadastro. Vários tipos de ataques podem ser efetuados por impostores que desejam usar o sistema indevidamente. Além dos aspectos técnicos, existe o aspecto social. É crescente a preocupação do usuário tanto com o armazenamento quanto o uso indevido de suas biometrias, pois é um identificador único e, por ser invariável no tempo, pode ser perdido para sempre caso seja comprometido. O fato de que várias empresas com seus diferentes servidores guardarem as biometrias está causando incomodo aos usuários, pois as torna mais suscetíveis à ataques. Nesta dissertação, o uso de cartões inteligentes é adotado como possível solução para os problemas supracitados. Os cartões inteligentes preparados para multi-aplicações são usados para realizar as comparações biométricas internamente. Dessa forma, não seria mais necessário utilizar diversos servidores, pois as características biométricas estarão sempre em um único cartão em posse do dono. Foram desenvolvidas e implementadas três diferentes algoritmos de identificação biométrica utilizando diferentes características: impressão digital, impressão da palma da mão e íris. Considerando a memória utilizada, tempo médio de execução e acurácia, a biometria da impressão da palma da mão obteve os melhores resultados, alcançando taxas de erro mínimas e tempos de execução inferiores a meio segundo.
Resumo:
Os Sistemas Multi-Robôs proporcionam vantagens sobre um robô individual, quando da realização de uma tarefa com maiores velocidade, precisão e tolerância a falhas. Os estudos dos comportamentos sociais na natureza têm permitido desenvolver algoritmos bio-inspirados úteis na área da robótica de enxame. Seguindo instruções simples e repetitivas, grupos de robôs, fisicamente limitados, conseguem solucionar problemas complexos. Quando existem duas ou mais tarefas a serem realizadas e o conjunto de robôs é heterogêneo, é possível agrupá-los de acordo com as funcionalidades neles disponíveis. No caso em que o conjunto de robôs é homogêneo, o agrupamento pode ser realizado considerando a posição relativa do robô em relação a uma tarefa ou acrescentando alguma característica distintiva. Nesta dissertação, é proposta uma técnica de clusterização espacial baseada simplesmente na comunicação local de robôs. Por meio de troca de mensagens entre os robôs vizinhos, esta técnica permite formar grupos de robôs espacialmente próximos sem precisar movimentar os robôs. Baseando-se nos métodos de clusterização de fichas, a técnica proposta emprega a noção de fichas virtuais, que são chamadas de cargas, sendo que uma carga pode ser estática ou dinâmica. Se uma carga é estática permite determinar a classe à qual um robô pertence. Dependendo da quantidade e do peso das cargas disponíveis no sistema, os robôs intercambiam informações até alcançar uma disposição homogênea de cargas. Quando as cargas se tornam estacionárias, é calculada uma densidade que permite guiar aquelas que estão ainda em movimento. Durante as experiências, foi observado visualmente que as cargas com maior peso acabam se agrupando primeiro enquanto aquelas com menor peso continuam se deslocando no enxame, até que estas cargas formem faixas de densidades diferenciadas para cada classe, alcançando assim o objetivo final que é a clusterização dos robôs.
Resumo:
Os processos de beneficiamento têxtil, como o alvejamento, a purga, o tingimento e as lavagens são reconhecidamente impactantes ao meio ambiente, tanto do ponto de vista de consumo de água, quanto da geração de efluentes. Os efluentes têxteis oriundos dos processos de beneficiamento se caracterizam por apresentarem elevadas concentrações de substâncias emulsificantes, íons cloreto, sólidos e matéria orgânica, além de alta toxicidade. Mas sem dúvida, o maior problema desses efluentes deve-se a presença de corantes e pigmentos. Alguns parâmetros físico-químicos importantes no controle da poluição hídrica são de difícil medição e consequente monitoramento, principalmente pela ausência de legislação que expresse de maneira clara e objetiva os limites destes parâmetros. Este fato permite avaliações dúbias e contestações aos órgãos ambientais. Especificamente no caso do parâmetro cor, esta subjetividade obriga muitas indústrias a empregarem valores de controle de cor oriundos de outros estados, ou até mesmo de outros países. No Rio de Janeiro, de acordo com a NT-202-R-10 do INEA, o critério para cor é estar virtualmente ausente no efluente. Neste contexto, este estudo avaliou algumas metodologias empregadas na determinação da cor em um efluente têxtil. Para a medição de cor, foram empregadas três metodologias descritas na literatura. A primeira metodologia desenvolvida para análise de água, também utilizada para efluentes líquidos, se baseia em medições espectrofotométricas em um único comprimento de onda padrão (450nm ou 465nm), tendo como referência soluções de Pt-Co. Essa metodologia não abrange todas as tonalidades do espectro de cores possíveis para os efluentes têxteis. O segundo método se baseia na medição em três comprimentos de onda (436, 525 e 620nm), denominado índice DFZ. O último método investiga os valores máximos de absorbância, na faixa entre 350 e 700nm, na amostra. Os resultados obtidos mostraram que as correções dos valores de medição de cor utilizando os valores máximos de absorbância expressaram melhor a realidade dos dados experimentais, visto que eliminam um possível erro causado pela restrita faixa de detecção do método tradicional, numa região do espectro típica para tonalidades encontradas na água.
Resumo:
A integridade de dutos ganha importância à medida em que o desenvolvimento da indústria expande a malha para transportar líquidos e gases num contexto de aumento das exigências ambientais. Um importante aliado para manutenção da integridade de dutos são reparos de materiais compósitos. Estes materiais apresentam baixa densidade, capacidade de direcionar resistência de acordo com as direções das solicitações, execução de reparo a frio sem necessidade de interromper produção ou grande maquinário. Este trabalho tem como objetivo desenvolver e implementar um algoritmo de elementos finitos que permita avaliar os esforços e a resistência das paredes de um tubos fabricados ou reparados com laminados de material compósito carregados com pressão interna. Entre as vantagens de desenvolver um programa tem-se: agilidade de avaliação, menor custo com licença, menores exigências computacionais, possibilidade de desenvolver o programa e o melhor entendimento da modelagem dos fenômenos. Utiliza-se como entrada do programa o diâmetro do duto, pressão interna e parâmetros do laminado. A modelagem em elementos finitos é realizada a partir da teoria clássica de laminados. Aplicando o carregamento resultante da pressão interna, determina-se os deslocamentos e são calculadas as tensões e aplicado o critério de falha de Tsai-Hill em cada camada. Estudos experimentais e numéricos encontrados na literatura foram simulados com o programa gerado e os resultados para propriedades do laminado, tensões nos dutos e pressão de ruptura apresentam concordância com os resultados da literatura.O programa ainda tem sua estrutura modificada para encontrar a pressão de falha a partir dos dados do laminado. O programa implementado permite uma avaliação rápida de resistência do reparo e possibilita avaliar rapidamente a resposta a mudanças nos parâmetros de projeto do laminado.
Resumo:
Métodos de otimização que utilizam condições de otimalidade de primeira e/ou segunda ordem são conhecidos por serem eficientes. Comumente, esses métodos iterativos são desenvolvidos e analisados à luz da análise matemática do espaço euclidiano n-dimensional, cuja natureza é de caráter local. Consequentemente, esses métodos levam a algoritmos iterativos que executam apenas as buscas locais. Assim, a aplicação de tais algoritmos para o cálculo de minimizadores globais de uma função não linear,especialmente não-convexas e multimodais, depende fortemente da localização dos pontos de partida. O método de Otimização Global Topográfico é um algoritmo de agrupamento, que utiliza uma abordagem baseada em conceitos elementares da teoria dos grafos, a fim de gerar bons pontos de partida para os métodos de busca local, a partir de pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem dois objetivos. O primeiro é realizar uma nova abordagem sobre método de Otimização Global Topográfica, onde, pela primeira vez, seus fundamentos são formalmente descritos e suas propriedades básicas são matematicamente comprovadas. Neste contexto, propõe-se uma fórmula semi-empírica para calcular o parâmetro chave deste algoritmo de agrupamento, e, usando um método robusto e eficiente de direções viáveis por pontos-interiores, estendemos o uso do método de Otimização Global Topográfica a problemas com restrições de desigualdade. O segundo objetivo é a aplicação deste método para a análise de estabilidade de fase em misturas termodinâmicas,o qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. A solução deste problema de otimização global é necessária para o cálculo do equilíbrio de fases, que é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Além disso, afim de ter uma avaliação inicial do potencial dessa técnica, primeiro vamos resolver 70 problemas testes, e então comparar o desempenho do método proposto aqui com o solver MIDACO, um poderoso software recentemente introduzido no campo da otimização global.
Resumo:
Estudos epidemiológicos têm mostrado rápido aumento na prevalência de sobrepeso e obesidade, tanto na população adulta quanto em crianças e adolescentes, sendo o exercício físico considerado uma importante estratégia tanto na prevenção quanto no tratamento do ganho de peso. Apesar disso, estudos que avaliam os efeitos isolados do exercício físico no controle ponderal têm apresentado resultados conflitantes. Esses achados podem ser explicados por um possível efeito compensatório provocado pela sessão de exercício nas atividades físicas realizadas em períodos subsequentes. Portanto, o objetivo deste estudo é avaliar o efeito de diferentes intensidades do exercício físico no gasto energético com atividades físicas em adolescentes com excesso de peso. O desenho do estudo foi experimental do tipo crossover com realização de três sessões (controle, exercício moderado e exercício vigoroso). Vinte e quatro adolescentes de 11 a 13 anos, estudantes da rede municipal de ensino de Niterói-RJ, do sexo masculino e com excesso de peso concordaram em participar do estudo. O gasto energético com atividades físicas foi avaliado por acelerômetros triaxiais colocados durante as sessões experimentais e retirado após seis dias. Os dados referentes ao gasto energético associado às atividades físicas foram avaliados na 1 hora de utilização do acelerômetro e durante os seis dias de acompanhamento. Além disso, os valores também foram tratados de forma cumulativa, tendo sido calculado o gasto energético total de 24, 48, 72, 96, 120 e 144 horas. Análise de variância foi utilizada para avaliar as possíveis diferenças entre o gasto energético na primeira hora de registro entre os três grupos seguida do teste post hoc de Scheffé. A comparação das variações das médias de gasto energético (por dia e acumuladas) foi realizada por meio de modelos lineares mistos. A comparação do gasto energético durante a 1 hora de registro demonstrou diferença significativa entre todos três grupos, com médias de 82, 286 e 343 kcal para os grupos controle, moderado e intenso, respectivamente (p<0.001). O mesmo padrão de diferença para o gasto energético entre os grupos se manteve ao final de 24 horas (704 vs 970 vs 1056 kcal, p<0.001) e no gasto energético acumulado durante os seis dias de acompanhamento (5102 vs 5193 vs 5271 kcal, p<0.001). A análise do gasto energético por dia demonstrou uma redução do gasto energético dos grupos moderado e vigoroso a partir do segundo dia e que se manteve até o sexto dia de acompanhamento. Desse modo, pode-se concluir que uma única sessão de exercício físico aeróbio parece modificar o comportamento das atividades físicas espontâneas realizadas ao longo de 6 dias em adolescentes com excesso de peso. Entretanto, apesar do efeito compensatório observado, o gasto energético acumulado durante os seis dias para os grupos que realizaram as sessões de exercícios foi superior ao da sessão controle, tendo o grupo vigoroso apresentado o maior dispêndio acumulado para o período de acompanhamento. Futuros estudos são necessários de modo a investigar a compensação do gasto energético em obesos e não obesos e o efeito de um número maior de sessões de treinamento.
Resumo:
O efeito magnetocalórico, i.e., o aquecimento e/ou resfriamento de um material magnético sob variação do campo magnético aplicado é a base da refrigeração magnética.O efeito magnetocalórico é caracterizado pela variação da entropia em um processo isotérmico (O efeito magnetocalórico, i.e., o aquecimento e/ou resfriamento de um material magnético sob variação do campo magnético aplicado é a base da refrigeração magnética. O efeito magnetocalórico é caracterizado pela variação da entropia em um processo isotérmico (ΔSiso) e pela variação da temperatura em um processo adiabático ΔTad.Apesar dos inúmeros trabalhos experimentais e teóricos publicados nessa área, muitos aspectos desse efeito ainda não são bem compreendidos.Nesse trabalho discutimos os efeitos da anisotropia sobre as propriedades magnetocalóricas de um sistema de momentos magnéticos localizados. Para essa finalidade, utilizamos um modelo de spins interagentes com um termo de anisotropia uniaxial do tipo DS2 z , onde D é um parâmetro. Nesse modelo, em que o eixo z é a direção de fácil magnetização, a magnitude do parâmetro de anisotropia e a direção do campo magnético aplicado têm um papel fundamental no comportamento das grandezas magnetocalóricas ΔSiso e ΔTad. Realizamos um estudo sistemático para um sistema com J = 1 aplicando o campo magnético em diferentes direções. Os resultados mostram que, quando o campo magnético é aplicado ao longo da direção z, as grandezas magnetocalóricas apresentam o comportamento normal (valores positivos de ΔTad e valores negativos de ΔSiso para ΔB > 0). Quando o campo magnético é aplicado em uma direção diferente do eixo z, as grandezas magnetocalóricas podem apresentar o comportamento inverso (valores negativos de ΔTad e valores positivos de ΔSiso para ΔB > 0) ou o comportamento anômalo (troca de sinal nas curvas de ΔTad e ΔSiso). Resultados equivalentes também foram obtidos para um sistema com J = 7=2.
Resumo:
O estresse durante o desenvolvimento está associado com diversas desordens neurocomportamentais, que podem persistir ao longo da vida. A hiperatividade é um dos transtornos comportamentais que, com maior frequência, observa-se em humanos submetidos ao estresse precoce. Esse transtorno pode ser a manifestação clínica predominante, ou mesclar-se com déficit de atenção, impulsividade e retardo da aprendizagem, constituindo o Transtorno de Déficit de Atenção e Hiperatividade (TDAH), com número de casos diagnosticados em ascensão. Diversos protocolos experimentais utilizam a separação materna (SM) de roedores neonatos para mimetizar as consequências do estresse precoce em humanos. Esta predileção por roedores recém-nascidos se deve à sua equivalência aproximada com fetos humanos no terceiro trimestre da gestação em termos de neurodesenvolvimento, quando ocorre o maior crescimento do Sistema Nervoso Central fetal. Neste trabalho, camundongos suíços neonatos foram submetidos a sessões diárias de isolamento com separação materna, entre o 2 e o 10 dias de vida pós-natal (PN2 a PN10), variando-se a temperatura de isolamento dos filhotes, que permaneciam sem aquecimento (na temperatura do biotério, entre 22 e 25C) ou eram mantidos aquecidos a 37C durante essas sessões. Portanto, foram três grupos experimentais: isolamento aquecido com SM; isolamento não aquecido com SM; e controle. Os animais do grupo controle foram pesados em PN2 e PN10 e, prontamente, devolvidos às progenitoras. Todos os animais foram desmamados e sexados em PN21, não sendo perturbados até a realização dos testes neurocomportamentais, a partir de PN30, que incluíram os Testes de Campo Aberto e de Esquiva Inibitória. Num segundo estudo, foram realizadas dosagens séricas da corticosterona basal e dos hormônios tireoidianos nos três grupos experimentais, em PN6, PN10 e PN30. Finalmente, num terceiro estudo, camundongos do grupo controle e do grupo submetido ao isolamento não aquecido com SM foram tratados com vimpocetina (20g/kg), um neuroprotetor potencial, ou com veículo (Dimetilsulfóxido), a fim de avaliar os efeitos da vimpocetina na atividade locomotora. O 1 estudo demonstrou que a temperatura foi um fator crítico para a manifestação de hiperatividade locomotora no Teste do Campo Aberto, que ocorreu, somente, nos animais do grupo submetido ao isolamento não aquecido. Adicionalmente, não houve diferenças entre os grupos experimentais no Teste da Esquiva Inibitória, quanto à memória e à aprendizagem. O 2 estudo demonstrou que a temperatura do isolamento influenciou os níveis da corticosterona basal e dos hormônios tireoidianos em PN10 e em PN30. No 3 estudo, a vimpocetina reduziu a hiperatividade locomotora no grupo de animais submetidos ao isolamento não aquecido com SM. De todo o exposto, conclui-se que o isolamento com SM de camundongos suíços neonatos à temperatura de 22 a 25C aumentou a atividade locomotora nesses animais, e que a vimpocetina foi capaz de atenuar esse comportamento, sem aumento da mortalidade. Finalmente, considerando-se o maior risco de desenvolvimento do TDAH em crianças e adolescentes com históricos de prematuridade, levanta-se a hipótese de que o estresse térmico pelo frio seja um dos fatores envolvidos na fisiopatogenia da hiperatividade nesses casos.
Resumo:
A co-pirólise é uma rota promissora, uma vez que minimiza o impacto ambiental causado pela disposição do plástico de maneira inadequada, evita seu acúmulo em lixões e permite um melhor aproveitamento de um recurso natural não-renovável, o petróleo, matéria prima importante para a geração de energia e obtenção de produtos químicos. O presente trabalho teve como objetivo a definição das condições experimentais mais propícias à obtenção de líquidos pirolíticos com alta fração de óleo diesel, resultantes da co-pirólise de polietileno de alta densidade (PEAD) pós-consumo com gasóleo pesado tilizando-se catalisador de FCC (Fluid Catalytic Cracking). Como instrumento de otimização das condições experimentais, optou-se pela Metodologia Planejamento Fatorial. Foi também estudado o efeito das condições experimentais, como: a temperatura de reação, a relação gasóleo/polietileno e a quantidade de catalisador no meio reacional. As amostras de polietileno, gasóleo e catalisador foram submetidas à co-pirólise em sistema de leito fixo, sob fluxo constante de nitrogênio, variando-se a temperatura entre 450 C a 550 C, a quantidade de PEAD no meio reacional foi de 0,2 a 0,6 g, e a quantidade de catalisador foi de zero a 0,06 g, mantendo-se fixa a quantidade de gasóleo em 2 g. Foram efetuadas as caracterizações física e química do gasóleo, polietileno pós-uso e do catalisador. Como resultado, obteve-se a produção de 87% de fração de óleo diesel em duas condições diferentes: (a) 550 0C de temperatura sem catalisador; (b) 500 0C de temperatura e 25% de catalisador FCC. Em ambos os casos, a quantidade de gasóleo pesado e PEAD foram constantes (2 g Gasóleo; 0,2 g PEAD), assim com o tempo de reação de 15 minutos. A fração de óleo diesel obtida neste estudo alcançou o poder calorífico de 44,0 MJ/Kg que é similar ao óleo diesel comercial. É importante ressaltar que em ambos os casos nenhum resíduo foi produzido, sendo uma rota ambientalmente importante para reciclagem de embalagens plásticas contaminadas com óleo lubrificante originárias de postos de serviço, visando à recuperação de ambos conteúdo energético e orgânico dos resíduos de embalagens plásticas pós-uso
Resumo:
Desde a descoberta do estado quasicristalino por Daniel Shechtman et al. em 1984 e da fabricação por Roberto Merlin et al. de uma superrede artificial de GaAs/ AlAs em 1985 com características da sequência de Fibonacci, um grande número de trabalhos teóricos e experimentais tem relatado uma variedade de propriedades interessantes no comportamento de sistemas aperiódicos. Do ponto de vista teórico, é bem sabido que a cadeia de Fibonacci em uma dimensão se constitui em um protótipo de sucesso para a descrição do estado quasicristalino de um sólido. Dependendo da regra de inflação, diferentes tipos de estruturas aperiódicas podem ser obtidas. Esta diversidade originou as chamadas regras metálicas e devido à possibilidade de tratamento analítico rigoroso este modelo tem sido amplamente estudado. Neste trabalho, propriedades de localização em uma dimensão são analisadas considerando-se um conjunto de regras metálicas e o modelo de ligações fortes de banda única. Considerando-se o Hamiltoniano de ligações fortes com um orbital por sítio obtemos um conjunto de transformações relativas aos parâmetros de dizimação, o que nos permitiu calcular as densidades de estados (DOS) para todas as configurações estudadas. O estudo detalhado da densidade de estados integrada (IDOS) para estes casos, mostra o surgimento de plateaux na curva do número de ocupação explicitando o aparecimento da chamada escada do diabo" e também o caráter fractal destas estruturas. Estudando o comportamento da variação da energia em função da variação da energia de hopping, construímos padrões do tipo borboletas de Hofstadter, que simulam o efeito de um campo magnético atuando sobre o sistema. A natureza eletrônica dos auto estados é analisada a partir do expoente de Lyapunov (γ), que está relacionado com a evolução da função de onda eletrônica ao longo da cadeia unidimensional. O expoente de Lyapunov está relacionado com o inverso do comprimento de localização (ξ= 1 /γ), sendo nulo para os estados estendidos e positivo para estados localizados. Isto define claramente as posições dos principais gaps de energia do sistema. Desta forma, foi possível analisar o comportamento autossimilar de cadeias com diferentes regras de formação. Analisando-se o espectro de energia em função do número de geração de cadeias que seguem as regras de ouro e prata foi feito, obtemos conjuntos do tipo-Cantor, que nos permitiu estudar o perfil do calor específico de uma cadeia e Fibonacci unidimensional para diversas gerações
Resumo:
Nesse trabalho apresentamos a função e determinamos a natureza das convenções e hipóteses para os fundamentos científicos segundo a corrente convencionalista que surgiu na França na virada do século XIX para o XX, composta por Henri Poincaré, Pierre Duhem e Édouard Le Roy. Além disso, analisamos a relação que as convenções e hipóteses podem estabelecer com teses metafísicas através dos critérios utilizados pelos cientistas para determinar a preferência por certas teorias. Para isso, promovemos uma interpretação imanente das obras publicadas entre 1891 e 1905. Como resultado, revelamos que os autores, apesar de serem classificados como pertencentes a uma mesma corrente, não possuem apenas posições comuns, mas também divergências. Poincaré e Le Roy concordam que as convenções geométricas são escolhidas de acordo com o critério de conveniência. Contudo, eles discordam sobre o valor que a conveniência agrega ao conhecimento científico. Em relação aos fenômenos naturais, os três autores concordam que a realidade não pode ser descrita univocamente por um mesmo conjunto de convenções e hipóteses. Porém, Poincaré e Duhem acreditam que há critérios que tornam umas teorias mais satisfatórias que outras. Analisamos os critérios experimentais, racionais e axiológicos que justificam a satisfação dos cientistas com certas teorias e apontamos como estes critérios se relacionam com a metafísica. Concluímos que os convencionalistas, mesmo que cautelosamente e de modo implícito, buscaram se aproximar da metafísica com o intuito de justificar a própria atividade científica.