922 resultados para Modificações de interações
Resumo:
Neste trabalho estudamos modelos teóricos que descrevem sistemas eletrônicos fortemente correlacionados, em especial o modelo t-J, e suas aplicações a compostos de óxidos de cobre, notadamente os compostos que apresentam supercondutividade de alta temperatura crítica e o composto Sr2CuO2Cl2. No primeiro capítulo do trabalho, fazemos uma exposição de três modelos que envolvem o tratamento das interações elétron-elétron, que são os modelos de Hubbard de uma banda, o modelo de Heisenberg e o modelo t-J. Na dedução deste último fazemos uma expansão canônica do hamiltoniano de Hubbard, no limite de acoplamento forte, levando-nos a obter um novo hamiltoniano que pode ser utilizado para descrever um sistema antiferromagnético bidimensional na presen- ça de lacunas, que é exatamente o que caracteriza os compostos supercondutores de alta temperatura crítica na sua fase de baixa dopagem.Após termos obtido o hamiltoniano que descreve o modelo t-J, aplicamos à este uma descrição de polarons de spin, numa representação de holons, que são férmions sem spin, e spinons, que são bósons que carregam somente os graus de liberdade de spin. Utilizando uma função de Green para descrever a propagação do polaron pela rede, obtemos uma equação para a sua autoenergia somando uma série de diagramas de Feynman, sendo que para este cálculo utilizamos a aproxima ção de Born autoconsistente[1]. Do ponto de vista numérico demonstramos que a equação integral de Dyson resultante do tratamento anterior não requer um procedimento iterativo para sua solução, e com isto conseguimos trabalhar com sistemas com grande número de partículas. Os resultados mostram, como um aspecto novo, que o tempo de vida média do holon tem um valor bastante grande no ponto (π,0 ) da rede recíproca, perto da singularidade de Van Hove mencionada na literatura[2]. Este aspecto, e suas implicações, é amplamente discutido neste capítulo. No capítulo 3 estudamos o modelo estendido t-t'-J, com tunelamento à segundos vizinhos e a incorporação dos termos de três sítios[3]. Fazemos a mesma formulação do capítulo anterior, e discutimos as aplicações dos nossos resultados ao óxido mencionado anteriormente. Finalmente, no último capítulo apresentamos uma aplicação original do modelo t-J à uma rede retangular, levemente distorcida, e demonstramos que os resultados do capítulo 3 são reproduzidos sem necessidade de introduzir termos de tunelamento adicionais no hamiltoniano. Esta aplicação pode se tornar relevante para o estudo das fases de tiras encontradas recentemente nesses materiais de óxidos de cobre.
Resumo:
É bem conhecido que técnicas experimentais que fazem uso de feixes iônicos induzem sobre a superfície dos alvos irradiados o depósito de diversos tipos de impurezas. Este depósito é causado pelas interações entre o feixe de íons, as moléculas de gás residual no interior das câmaras de irradiação e a superfície da amostra. Apesar do fato deste processo poder alterar significativamente os parâmetros de irradiações, bem como afetar a análise de materiais tratados, os parâmetros experimentais que influenciam na deposição das impurezas ainda não são bem conhecidos e nem o depósito se encontra suficientemente quantificado. No presente trabalho relatamos um estudo quantitativo da deposição de carbono sobre amostras de Si (100) irradiadas com feixes de He e H. A deposição de carbono foi determinada em função da fluência de irradiação, variando diversos parâmetros experimentais, tais como: pressão na câmara de irradiação, temperatura do alvo, densidade de corrente do feixe, energia do feixe e o estado da carga do íon. Em todos os casos a análise das amostras irradiadas foi feita pela técnica de Retroespalhamento de Rutherford em direção Canalizada (RBS/C) e através da reação nuclear ressonante 12C(a, a´)12C na energia de 4265 keV. Os resultados experimentais mostram que se consegue minimizar a deposição de C através: a) da redução do tempo de irradiação, b) da redução da pressão na câmara de irradiação, c) do aumento da temperatura do alvo durante a irradiação e d) minimização do poder de freamento do íon no alvo.
Resumo:
Recentemente, tem sido questionada a validade do teorema de Migdal nos fuieretos dopados supercondutores. Motivados por esse problema, realizamos nesta dissertação uma revisão das propriedades físicas destes novos e notáveis materiais: os fulerenos e outros representantes desta família de compostos orgânicos que possuem estrutura geométrica de gaiola fechada. Em primeiro lugar abordamos, ainda que de maneira sucinta, alguns fundamentos da teoria microscópica BCS (Bardeen, Cooper e Schrieffer, 1961) da supercondutividade, tais como o problema da instabilidade do líquido de Fermi, a formação de pares de Cooper, o método da transformação canônica para demonstrar o aparecimento da interação efetiva atrativa entre os elétrons do par, as equações de Gor'kov demonstrando o surgimento do gap supercondutor, e a expressão BCS da temperatura crítica no limite de acoplamento fraco. Após, revisamos o trabalho realizado por Grimaldi, Cappelluti e Pietronero (1995), sobre a supercondutividade não adiabática nos fuieretos dopados, no qual são feitas correções de vértice para a interação elétron-fônon, usando o método perturbativo. Naquele trabalho eles utilizam um modelo de fônons de Einstein com uma única freqüência para caracterizar a função espectral de Eliashberg, necessária para obter tais correções de vértice Nossa proposta neste trabalho é generalizar este modelo por um constituído de várias Lorentzianas truncadas, centradas nas freqüências dos principais modos de vibração da rede cristalina: os intermoleculares, os ópticos e os intramoleculares. Encontramos como resultado deste estudo que as correções de vértice, com contribuição multifonônica, introduzem modificações substancias como um aumento da temperatura crítica e variação no coeficiente isotópico, dando resultados mais próximos dos obtidos experimentalmente, em contraste daqueles obtidos na teoria de Migdal-Eliashberg, sem correções de vértice.
Resumo:
Esta dissertação examina a situação geral dos Acidentes Viários, no contexto do transporte rodoviário, cujas evidências apontam o Fator Humano como o maior responsável por tais eventos. Entende-se que um maior conhecimento sobre ele possibilitará melhorar a segurança do tráfego e da produção transporte. O estudo pretende destacar a importância das análises relacionadas com a atividade transporte rodoviário, as variações da demanda do sistema de circulação e a tarefa do motorista, sob a ótica da ergonomia. Objetiva ele, também, mostrar importância desses estudos para melhor avaliar as interações dos fatores homemmáquina- ambiente viário e para o desenvolvimento de novas tecnologias e produtos de segurança viária. A revisão bibliográfica dos capítulos iniciais revelam o estado da arte e a importância da segurança de trânsito, em nível internacional. Também revelaram que todas nações sofrem do mesmo mal em suas redes viárias, que varia de acordo com a realidade de cada um. Embora o acidente de trânsito seja um fenômeno comum às nações, aqui eles atingiram a dimensão de flagelo social, em razão da sua severidade; e de calamidade econômica, face a elevação dos custos de produção na atividade do transporte rodoviário. São analisadas as características do fator humano, fundamentais na tarefa de condução, e o respectivo nexo causal das falhas com a gênese do acidente, num sistema multifatorial e interativo. O trabalho fundamenta-se em extensa revisão bibliográfica. O estudo de caso, desenvolvido a partir da revisão dos dados de uma pesquisa anterior, comprova a hipótese que o “álcool-direção”, considerado na literatura como o maior causador de acidentes viários, tem sua presença marcada por elevados índices nas rodovias do RS, contrariando a conclusão da pesquisa anterior. Ao final, também oferece recomendações para o desenvolvimento de ações objetivas para melhorar a segurança viária.
Resumo:
Um esquema de banco de dados certamente sofrerá alguma alteração com o passar do tempo. Algumas das causas destas modificações são ocorrência de um aumento no domínio do sistema, erros ocorridos na fase de projeto, mudanças na realidade representada pelo sistema, ou a necessidade de melhoria no seu desempenho. O uso de bancos de dados temporais é uma alternativa para o armazenamento das informações da evolução, pois permite sua recuperação por meio do histórico de suas mudanças. O presente trabalho propõe um ambiente para implementar evolução de esquemas sobre um BDOO, utilizando o Modelo Temporal de Versões (TVM). Deste modo, características de versões e de tempo são utilizadas tanto no nível dos esquemas como nos dados armazenados. Estados são associados às versões de esquema para representar seus estágios de desenvolvimento durante a evolução. O gerenciamento das versões de esquema é realizado por intermédio de uma camada denominada meta-esquema. Em um outro nível, o gerenciamento das instâncias é realizado por meio de uma camada denominada metadados, inserida para cada versão de esquema definida. Por intermédio destes controles é possível analisar a evolução dos esquemas como um todo e, para cada esquema, as correspondentes versões de seus dados e sua evolução temporal. Algumas alternativas de consulta para um ambiente com estas características são analisadas. O trabalho apresenta, ainda, as características básicas de um protótipo implementado para verificar a viabilidade da proposta apresentada.
Resumo:
A helmintosporiose, incitada por Drechslera avenae (teleomorfo, Pyrenophora avenae), constitui fator limitante à produção e à qualidade do grão de aveia (Avena sativa L). A caracterização biológica e molecular da interação aveia - D. avenae pode contribuir para o manejo e a determinação de estratégias de controle da doença. Para a caracterização biológica, foram avaliadas trinta cultivares de aveia quanto à percentagem de área foliar com sintomas da doença e o tipo de lesão, inicialmente sob condições de inoculação artificial com três isolados do fungo e, após, no campo, sob condições naturais de infecção. Os resultados demonstraram haver interações significativas entre os genótipos da planta e isolados do patógeno. Classificaram-se como mais resistentes ao fungo OR 4, UFRGS 7, UFRGS 14, UFRGS 18 e UPF 19. Para a caracterização molecular da interação, cinco genótipos (CTC 5, ORLA 975, preta-comum, UFRGS 18 e UPF 17), não inoculados e inoculados com dois isolados do fungo, foram investigados para a análise de expressão diferencial de genes após 12, 24 e 72 horas após a inoculação. A partir do RNA total extraído das plantas submetidas aos tratamentos, realizaram-se a síntese de cDNA (RT-PCR), o isolamento de cDNAs expressados diferencialmente e a produção de sondas para a verificação de mRNAs induzidos, os quais foram hibridizados por meio de “Southern blot” e “Reverse Northern”. Foram observadas diferenças na expressão de genes, em nível de mRNA, entre plantas sadias e infectadas, tendo-se obtido sete fragmentos de cDNAs relacionados à interação com D. avenae, os quais foram comparados quanto a sua similaridade com seqüências depositadas no banco de dados do Genbank. Pela análise de “Reverse Northern”, pôde-se identificar um cDNA denominado E3-IFCO, relacionado com a resposta de defesa da planta.
Resumo:
O presente estudo teve por objetivo avaliar se a aplicação tópica de flúor fosfato acidulado (FFA) em alta concentração tem efeito adicional no controle de lesões de esmalte, comparado ao uso de dentifrício fluoretado (baixa concentração). A freqüência de FFA como auxiliar no tratamento de lesões de cárie e a deposição de flúor no esmalte após diferentes aplicações de flúor am alta e baixa concentração também foram avaliadas. Para tanto, 5 indivíduos utilizaram, por 42 dias, próteses parciais removíveis inferiores contendo blocos de esmalte bovino desmineralizados. Os espécimes de esmalte forma divididos em 5 grupos: (1) escovação 3 vezes ao dia com dentifrício fluoretado (DF) (1100 ppm F), (2) DF+1 aplicação tópica FFA (12300 ppm F), (3) DF+2 FFA, (4) DF+3 FFA, e 5) DF+4 FFA. O intervalo entre as aplicações foi de uma semana. Cinco blocos hígidos e 5 blocos desmineralizados foram utilizados como controle e não foram submetidos ao período intraoral. As alterações clínicas foram registradas com relação à textura, coloração e brilho superficiais. Análises de microdureza superficial (MS) e em cortes longitudinais (MCL), de rugosidade superficial (RS) e de conteúdo de flúor depositado no esmalte foram realizadas. Modificações clínicas semelhantes de coloração foram observadas em todos os grupos após formação da lesão in vitro, apesar da ausência de mudanças na textura e brilho superficiais. Após escovação e tratamento com flúor, todos os blocos desmineralizados (esbranquiçados), independentemente do tratamento, tornaram-se mais amarelados. Não foram detectadas mudanças na textura e brilho superficiais. Os valores de MS e de conteúdo de flúor aumentaram (p<0,05) em relação aos blocos demineralizados somente a partir de 2 FFA. Os valores de MCL não mostraram diferenças entre os blocos tratados e os desmineralizados em qualquer distância da superfície do esmalte. Os grupos DF+3 FFA e DF+ 4 FFA foram os únicos capazes de aumentar os valores de MS em relação aos blocos desmineralizados. Estes tratamentos levaram a um aumento significativo de flúor solúvel e insolúvel comparado aos espécimes hígidos e desmineralizados. Ainda que todas as lesões tenham sido controladas clinicamente e não mostrem diferenças de microdureza, parece que aquelas tratadas com maior número de FFA produziram um maior reservatório de flúor disponível para inibir novos processos de desmineralização.
Resumo:
A divisão do processo de planejamento e controle da produção (PCP) em diferentes níveis hierárquicos é um dos mecanismos básicos para lidar com a incerteza. Por outro lado, a falta de integração entre estes níveis é apontada como uma dos obstáculos mais importantes à eficácia deste processo, uma vez que dificulta que as decisões tomadas nos diferentes níveis gerenciais sejam consistentes entre si. Este problema é particularmente importante em empreendimentos de construção, os quais, em função de sua complexidade e da incerteza envolvida, em geral requerem freqüentes modificações nos planos, podendo estas ser consideravelmente trabalhosas. O objetivo geral do presente trabalho consiste em propor diretrizes para a interligação do processo de planejamento e controle nos níveis de longo, médio e curto prazo, através da utilização de pacotes computacionais tradicionais, assim como contribuir para a consolidação e refinamento do modelo de PCP proposto por Formoso et al. (1999). O trabalho realizado foi dividido em três grandes etapas. A primeira delas compreendeu a realização de uma pesquisa bibliográfica. A segunda etapa consistiu no desenvolvimento de dois estudos de caso, realizados em empresas de construção do Estado da Bahia, uma delas atuante nos mercados de obras públicas e a outra em incorporações imobiliárias para a classe média-alta. Por fim, na terceira etapa foram analisados os resultados e propostas as diretrizes para a interligação dos diferentes níveis do PCP Entre as conclusões, pode-se destacar que a eficácia dos planos produzidos em pacotes computacionais depende fortemente da existência de um plano de ataque da obra, o qual deve ser discutido com a gerência da produção e explicitado graficamente, de forma a aumentar a transparência de processos. Quando o plano de longo prazo não é elaborado adequadamente, levando em conta as reais necessidades da gerência de produção, o esforço despendido na realização de alterações tende a ser muito grande, dificultando a utilização deste plano para controle em tempo real. O estudo também sugere um conjunto de indicadores que permitem avaliar o cumprimento de prazo e a aderência entre planos de diferentes níveis gerenciais. Estes indicadores são obtidos com relativa facilidade, a partir da utilização do pacote computacional MSProject. Finalmente, o estudo oferece algumas contribuições relativas a critérios para a definição de pacotes de trabalho, à medida que os planos necessitam serem detalhados nos níveis de médio e curto prazo.
Resumo:
Dentre as profundas modificações experimentadas na Sociedade e, em especial, as que se produzem no mundo do trabalho, observamos movimentos em direção a formas de trabalho flexível, entre as quais se insere o Teletrabalho. Sem ser propriamente novo no cenário mundial, no Brasil ele surge com maior expressão recentemente, passando a ocupar espaços na mídia em geral e nos ambientes universitários. Todavia, são poucas as referências acadêmicas brasileiras ao assunto e estudos se fazem necessários. Com a pretensão de contribuir com conhecimentos a respeito do assunto, sob o prisma da realidade brasileira e de uma situação particular, o estudo utilizou referências teóricas e empíricas para examinar a viabilidade do Teletrabalho na Companhia de Processamento de Dados do Município de Porto Alegre. Abrangeu a análise de condições organizacionais, técnicas, humanas, legais e sindicais compreendidas na proposta e incluiu, igualmente, uma sugestão para um projeto de demonstração. O estudo, notadamente qualitativo, valoriza as perspectivas de segmentos potencialmente envolvidos num processo de adoção de Teletrabalho pela Empresa, como elemento para a sua compreensão. Foi desenvolvido mediante a realização de entrevistas com representantes dos sindicatos da categoria, dos funcionários e chefias, Diretoria da Empresa e especialistas em assuntos jurídicos e segurança de informações. O estudo concluiu ser a introdução do Teletrabalho viável em parte, num sistema de voluntariado, em regime de tempo parcial e, pelo menos inicialmente, em ambientes de telecentros. Mesmo existindo uma série de condições favoráveis, o atendimento de certos prérequisitos e o equacionamento de dúvidas e dificuldades são essenciais para promover uma implementação adequada, considerando as condições internas da Empresa, seu papel institucional e o contexto social onde está inserida. A pesquisa, na verdade, pode ser considerada um passo inicial dentro de um processo mais amplo, que integra o domínio da tecnologia do Teletrabalho para uso interno na Empresa, se assim for desejado, ou como uma alternativa para proposição de novos serviços a clientes e à comunidade.
Resumo:
Os dejetos de mercúrio utilizados industrialmente atingem a natureza e, por este motivo, isto se tornou um problema de Saúde Pública. O mercúrio pode agir como iniciador de lipoperoxidação (LPO) e promover formação de radicais livres. Estudos prévios demonstraram que o HgCl2, de forma aguda, diminui a atividade mecânica do coração e afeta a freqüência cardíaca. Foi objetivo deste estudo reproduzir um modelo de intoxicação crônica por cloreto de mercúrio através da administração subcutânea deste metal por 30 dias e verificar se muda a concentração sangüínea deste metal nos ratos tratados. Buscou-se também observar se o cloreto de mercúrio produz modificações temporais sistêmicas no estresse oxidativo e alterações na lipoperoxidação, na capacidade antioxidante total e na atividade das enzimas antioxidantes em homogeneizado cardíaco, hepático e renal entre os grupos, após 30 dias de intoxicação. Para isto, foram utilizados 20 ratos machos Wistar com peso aproximado de 250g, divididos em dois grupos: grupo Controle (C), que foram injetados subcutaneamente sem introdução de substâncias e grupo HgCl2 (H), os quais receberam injeção subcutânea deste composto na concentração de 5mg/Kg de peso, diluídos em soro fisiológico. Ambos foram injetados durante 30 dias consecutivos, sempre à mesma hora. Foi coletado sangue do plexo retrorbital dos animais na 1°, 2° e 4° semana de tratamento para medida do estresse oxidativo. Após o término do tratamento, o sangue total de cada rato foi retirado e, então, estes animais foram sacrificados e seus corações, fígados e rins foram retirados e homogeneizados. Os eritrócitos lavados e os sobrenadantes teciduais foram utilizados para medidas de lipoperoxidação, através de quimiluminescência e para medida das atividades enzimáticas da Catalase (CAT), Superóxido Dismutase (SOD), Glutationa-S-Transferase (GST) e Glutationa Peroxidase (GPx). A capacidade antioxidante total (TRAP) foi medida em plasma e sobrenadante tecidual. Como resultados, observamos que os ratos tratados diminuíram de peso significativamente (diferença de peso de quase 50% entre os grupos). A concentração sangüínea de mercúrio no grupo tratado estava aumentada significativamente. Comparando-se os grupos experimentais, observou-se, em relação ao estresse oxidativo temporal sangüíneo, que na 2° semana de tratamento as enzimas antioxidantes GST e GPx aumentaram suas atividades (14% e 28%, respectivamente), em relação ao grupo controle. A SOD mostrou-se diminuída na 1° e 2° e aumentou na 4° semana, significativamente (25%, 50% e 43%, respectivamente). A atividade da CAT não variou no sangue. O TRAP esteve diminuído pela metade na 1° semana de estudo. Quando se comparou o comportamento de cada grupo com ele mesmo como referência ao longo do tempo de estudo, notou-se que o grupo controle apresentou um aumento progressivo na atividade da GST, com o passar das semanas. Em relação à GST, o grupo controle apresenta uma queda de atividade na 2° semana, tendo esta atividade aumentada na 1° e 4° semana. A enzima SOD e o TRAP mantiveram-se aproximadamente constantes no decorrer dos trinta dias de experimento, no grupo controle. A atividade da CAT mostrou-se diminuída na 1° semana, em relação às demais, no grupo controle. Já o grupo tratado, quando comparado a si mesmo durante o tempo de intoxicação, apresentou-se com a atividade da enzima GST diminuída na 1° semana, aumentando na 2° e, a partir daí, constante. A atividade da GPx e da SOD mostrou o mesmo perfil neste grupo, estando aumentada na 1° semana, diminuída na 2° e aumentada novamente na 4°semana de tratamento. A CAT aumentou progressivamente no grupo tratado no decorrer do tempo de intoxicação, o mesmo ocorrendo com o TRAP. Em relação aos tecidos, no coração a atividade da CAT encontrou-se diminuída e houve aumento significativo de LPO ao final do estudo. O TRAP apresentou-se aumentado em 225%. No rim, a CAT diminuiu significativamente no grupo que recebeu HgCl2 e a GST encontrou-se muito aumentada, quando comparada ao grupo controle. O TRAP aumentou 100%. No fígado, a lipoperoxidação aumentou 44% e as enzimas antioxidantes estudadas tiveram suas atividades diminuídas significativamente, com exceção da GST. O TRAP mostrou-se diminuído 55%. Os resultados encontrados sugerem que a administração de HgCl2 por injeção subcutânea, de forma crônica, aumentou o estresse oxidativo sistêmico principalmente na fase aguda, causando uma piora do estado de saúde geral dos animais. Da mesma forma, o estresse oxidativo cardíaco e hepático mostrou-se aumentado, no período de intoxicação crônica determ
Resumo:
O Sistema Financeiro Brasileiro tem sofrido enormes mudanças, oriundas, principalmente, do fim da “ciranda financeira”, da globalização, da estabilização da economia e do aumento das exigências de um consumidor melhor informado. Em decorrência de tal realidade, as instituições financeiras têm buscado novos conceitos de gestão, a fim de garantir a sua sobrevivência. O presente trabalho tenta demonstrar as modificações que ocorreram no Banco do Brasil em virtude da utilização dos conceitos de Gestão Econômica. Para tal, é apresentado o modelo de apuração de resultados no que tange à captação de um CDB, antes e depois da introdução do GECON. No final, são apresentadas as conseqüências práticas advindas do uso dos referidos conceitos.
Resumo:
O presente trabalho identificou as transformações nas qualificações dos trabalhadores ligados à produção na agroindústria de frigorífico de bovinos, com a introdução de novas tecnologias no processo produtivo. Com o auxílio de metodologia de natureza qualitativa foram realizados levantamentos em três frigoríficos de bovinos, sendo dois em Mato Grosso do Sul e outro frigorífico de referência no segmento, situado no estado de Goiás. Através de entrevistas semi-estruturadas junto a operários, supervisores, gerentes e de especialistas do setor, bem como de observações efetuadas sobre o processo produtivo, buscou-se captar as modificações ocorridas e as que deverão ocorrer no processo de produção, bem como os requisitos de qualificação da mão-de-obra para operá-lo. Foi construído o roteiro das entrevistas, tendo em vista os objetivos do trabalho, buscando captar as percepções dos diferentes interlocutores, bem como buscando identificar a complexidade das atividades e a forma de interação entre as pessoas nas diferentes fases do processo produtivo. Como resultado estabeleceu-se o perfil requerido para os trabalhadores que participarão diretamente do processo produtivo, bem como os programas de qualificação para atender as necessidades decorrentes das novas tecnologias a serem implementadas.
Resumo:
o objetivo do presente trabalho foi desenvolver um material adsorvente alternativo de íons sulfato a partir de um resíduo industrial abundante e renovável. Apesar da baixa toxicidade, concentrações elevadas destes íons inviabilizam o reciclo, o reuso e o descarte de efluentes. Para tanto, foi utilizado o resíduo do processamento de camarão que, após etapas de desmineralização, desproteinização e desacetilação, forneceu materiais quitinosos em forma de flakes com diferentes graus de desacetilação (GD), tendo sido selecionada a quitina com GD da ordem de 25% como sólido adsorvente. Os estudos de adsorção de íons sulfàto, realizados em frascos agitados com soluções sintéticas, mostraram valores de remoção da ordem de 92%, correspondente a uma capacidade de adsorção de 3,2 mEq.g-l. Estes resultados foram obtidos com o emprego de uma razão sólido/SO/- de 8,5 mg.mg-I, tempo de contato de 15 minutos e um pH de equilíbrio de 4,3 :t 0,3. Além da adsorção de íons sulfato, os resultados revelaram que quiti.na adsorve também íons molibdato (82% em 15 minutos e 92% em 60 minutos) sem qualquer interferência na adsorção de íons sulfato, fato considerado relevante no tratamento de efluentes de mineração de cobre e molibdênio. A adsorção dos íons sulfàto por quiti.na ocorre através do mecanismo de fisissorção por atração eletrostática, seguindo um modelo cinético de pseudo-segunda ordem, onde as etapas de transferência de massa dos íons não foram limitantes. A reversibilidade da adsorção, uma das características de processos que envolvem interações eletrostáticas, foi confirmada através de estudos de dessorção utilizando soluções de NaOH e permitiram verificar a possibilidade de regeneração do adsorvente. A cinética de adsorção em coluna de percolação, para uma granulometria de sólido e pH inicial do meio inferiores, foi maior do que a obtida no sistema de frascos agitados. Por outro lado, a capacidade de adsorção obtida a partir da curva de saturação em coluna de percolação foi praticamente a mesma obtida no sistema de :fIascosagitados. Nos estudos com efluentes industriais, o desempenho da quitina foi praticamente similar ao obtido com efluentes sintéticos, tendo sido atingidos elevados percentuais de adsorção. Estes resultados confirmam o potencial deste bioadsorvente para o tratamento de efluentes contendo altas concentrações de íons sulfato. Finalmente, são discutidas as considerações gerais do processo no contexto geral do tratamento de efluentes líquidos contendo compostos inorgânicos.
SAM: um sistema adaptativo para transmissão e recepção de sinais multimídia em redes de computadores
Resumo:
Esta Tese apresenta o SAM (Sistema Adaptativo para Multimídia), que consiste numa ferramenta de transmissão e recepção de sinais multimídia através de redes de computadores. A ferramenta pode ser utilizada para transmissões multimídia gravadas (vídeo sob demanda) ou ao vivo, como aulas a distância síncronas, shows e canais de TV. Seu maior benefício é aumentar o desempenho e a acessibilidade da transmissão, utilizando para isso um sinal codificado em camadas, onde cada camada é transmitida como um grupo multicast separado. O receptor, utilizando a ferramenta, adapta-se de acordo com a sua capacidade de rede e máquina no momento. Assim, por exemplo, um receptor com acesso via modem e outro via rede local podem assistir à transmissão na melhor qualidade possível para os mesmos. O principal foco da Tese é no algoritmo de controle de congestionamento do SAM, que foi denominado ALM (Adaptive Layered Multicast). O algoritmo ALM tem como objetivo inferir o nível de congestionamento existente na rede, determinando a quantidade de camadas que o receptor pode suportar, de forma que a quantidade de banda recebida gere um tráfego na rede que seja eqüitativo com outros tráfegos ALM concorrentes, ou outros tráfegos TCP concorrentes. Como se trata de transmissões multimídia, é desejável que a recepção do sinal seja estável, ou seja, sem muitas variações de qualidade, entretanto, o tráfego TCP concorrente é muito agressivo, dificultando a criação de um algoritmo estável. Dessa forma, desenvolveu-se dois algoritmos que formam o núcleo desta Tese: o ALMP (voltado para redes privativas), e o ALMTF (destinado a concorrer com tráfego TCP). Os elementos internos da rede, tais como os roteadores, não necessitam quaisquer modificações, e o protocolo funciona sobre a Internet atual. Para validar o método, se utilizou o software NS2 (Network Simulator), com modificações no código onde requerido. Além disso, efetuou-se uma implementação inicial para comparar os resultados das simulações com os da implementação real. Em http://www.inf.unisinos.br/~roesler/tese e também no CD anexo a esta Tese, cuja descrição encontra-se no Anexo B, podem ser encontrados todos os programas de apoio desenvolvidos para esta Tese, bem como a maior parte da bibliografia utilizada, o resultado das simulações, o código dos algoritmos no simulador e o código do algoritmo na implementação real.
Resumo:
A programação paralela é sem dúvida mais complexa do que a programação seqüencial. O controle de múltiplos processos e de suas interações são as principais razões para tal complexidade. Apesar da existência de algumas ferramentas que atendem à fase de desenvolvimento de programas paralelos, a complexidade é normalmente passada para as ferramentas paralelas, isto é, as ferramentas não são de fácil utilização. Assim, existe uma necessidade de ambientes e ferramentas realmente fáceis de usar no âmbito da programação paralela. Embora existam algumas ferramentas interessantes, inclusive algumas comerciais, seu uso permanece insuficiente, em parte devido à complexidade na utilização de algumas delas, em parte devido ao seu uso específico em determinadas plataformas. Portanto, existe ainda um grande campo de estudo no que diz respeito a melhorias de projeto sobre ferramentas existentes e desenvolvimento de ferramentas com um maior número de recursos. Provavelmente, a ferramenta paralela mais necessária aos programadores é o depurador paralelo. Por sua vez, ferramentas de depuração paralela estão entre as mais complexas de se desenvolver e talvez isso explique o motivo pelo qual poucas têm sido efetivamente utilizadas. Este trabalho descreve uma contribuição no campo da depuração paralela através da análise de interfaces de depuração paralela e da proposta de um modelo. A partir deste modelo, uma interface de depuração paralela – PADI (PArallel Debugger Interface) foi desenvolvida e seu principal objetivo é o de oferecer uma interface intuitiva e de fácil utilização. O modelo proposto e conseqüentemente a ferramenta PADI tratam da depuração paralela simbólica on-line. A depuração on-line trata do oferecimento de acesso aos símbolos do programa, como variáveis e registradores. A depuração on-line diferencia-se da off-line pelo tipo de interação com a execução do programa. A depuração on-line oferece interação direta com a aplicação, enquanto que a off-line interage com um arquivo de monitoração gravado durante a execução da aplicação paralela. A depuração on-line é similar à depuração seqüencial tradicional e, conseqüentemente, é de mais fácil utilização por parte da maioria dos programadores.