42 resultados para Frieseomelitta varia
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
São apresentados os resultados dos estudos petrográfico e geoquímico dos carvões da jazida de Chico Lomã, localizada no município de Santo Antônio da Patrulha, no nordeste do Rio Grande da Sul, situada entre as jazidas de Morungava (limite oeste) e Santa Terezinha (limite leste). Na sondagem estudada - 02-TG-88-RS - foram identificadas 7 camadas e 5 leitos de carvão. Entre estes, apenas as camadas E e F apresentam suficiente extensão lateral para serem consideradas economicamente exploráveis. Os carvões são ricos em matéria mineral, constituída, principalmente, de argila. O grupo maceral mais freqüente é o da vitrinita. No que diz respeito aos microlitotipos, ocorre, em geral, o predomínio de carbominerita. Foram identificadas 3 associações de microlitotipos, determinando a existência das seguintes faciologias: ambiente telmático (predomínio de vitrita-clarita), limo-telmático (predomínio de carbargilita-vitrita) e límnico (predomínio de carbargilita-durita-trimacerita). Os carvões apresentam rank que varia de betuminoso alto volátil C/sub-betuminoso A a betuminoso alto volátil A (ASTM). A utilização tecnológica dos carvões das camadas E e F, na siderurgia, pode ser sugerida, mesmo considerando-se seu elevado teor em cinza, desde que sejam submetidos a processos de beneficiamento. Em relação aos argilo-minerais, constatou-se a presença de caolinita, aparentemente relacionada ao conteúdo da matéria orgânica, e do interestratificado ilita-montmorilonita, provavelmente de origem detrítica. Foram identificados 3 grupos de elementos traços : associados à fração orgânica (Co, Ge, Ni, V e Zr), elementos intermediários (Cr, Cu e Sr) e associados à fração inorgânica (B, Ba e Ga). Observou-se, também, que os elementos do primeiro grupo, de maneira geral, se enriquecem nos litotipos com maior conteúdo de vitrênio, ao contrário dos elementos do último grupo que tendem a se enriquecer no carvão fosco e nos folhelhos. Os estudos realizados indicam um paleoambiente de água doce, no qual, provavelmente, tenham ocorrido pequenas ingressões marinhas entre as fases de formação de turfa.
Resumo:
O objetivo do presente trabalho é o estudo do comportamento, em termos de freqüências naturais de estruturas de torres estaiadas, para diversas situações de serviço. Para isso criou-se uma formulação para a determinação dessas freqüências, utilizando o método da matriz de transferência. O procedimento consiste na discretização da estrutura em elementos de barras, massas discretas, molas e amortecedores viscosos, para a representação da estrutura. Com relação aos cabos da torre estaiada, desenvolveu-se uma expressão que nos fornece a rigidez completa dos mesmos, apoiados nos extremos, com amortecimento viscoso e as propriedades físicas e geométricas uniformes. Além disso, os cabos podem ser inclinados e sujeitos à excitação horizontal harmônica no apoio superior. Nesse caso, considera-se uma deformada parabólica do cabo na posição de equilíbrio estático, e por outro lado, os deslocamentos dinâmicos são considerados pequenos. A rigidez do cabo é válida para um ângulo de inclinação que varia de zero (0) a noventa (90) graus. Esse método é aplicável a microcomputadores devido a pouca memória empregada no processamento de dados. Com esse intuito, foi elaborado um programa para microcomputadores de 16 bits, que possibilita o estudo da estrutura da torre sobre o efeito de flexão pura, torção pura ou acoplamento de ambos. Exemplos numéricos de torres estaiadas e do comportamento da rigidez de cabos foram desenvolvidos para as mais diversas situações de cálculo.
Resumo:
O estudo parte de duas constatações. A primeira é que países submetidos a choques econômicos similares apresentam resultados fiscais completamente distintos. A segunda é que o orçamento público tende a ser visto como um recurso comum em democracias representativas, e, sendo assim, acaba sendo superutilizado. A proposta do trabalho é analisar se o arcabouço institucional dos países pode explicar suas diferentes performances fiscais ao serem submetidos a choques econômicos similares. Para tanto, separamos as chamadas instituições fiscais (tratadas como regras do jogo) em dois grupos: (1) instituições políticas, e (2) instituições orçamentárias. O primeiro grupo trata dos impactos fiscais do sistema federalista, fragmentação política e polarização e instabilidade política. O segundo grupo trata dos impactos das regras de elaboração, aprovação e implementação do orçamento público. Os resultados indicam que o arranjo institucional dos países pode influenciar no seu desempenho fiscal. O grau de influência das instituições varia bastante. Dentre as que mais se destacam estão a estrutura federalista e o grau de transparência do orçamento.
Resumo:
Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos em diferentes tarefas. Estes sistemas são capazes de reconhecer padrões previamente ensinados em uma imagem complexa. A leitura automática é uma das mais atraentes tarefas nesta área [1], sendo que uma máquina com esta capacidade pode reconhecer objetos que possuam caracteres em sua identificação. Na área de trânsito, a identificação de veículos através da leitura de sua placa de licença vem conquistando cada vez mais espaço. No início dos anos cinqüenta, este conceito era usado para estudar o tempo de duração de viagens entre origem e destino. Os primeiros métodos utilizados eram baseados em observadores que anotavam as placas dos veículos e os tempos correspondentes em um papel ou fita gravada. As placas eram manualmente comparadas mais tarde, e os tempos de viagem calculados [2]. O crescente avanço tecnológico tem aumentado substancialmente a precisão e facilidade desta técnica permitindo sua utilização na identificação de veículos infratores e em situação irregular, e no controle de pedágios e estacionamentos pagos Este trabalho envolve o estudo de diversas técnicas de processamento e análise de imagem culminando no desenvolvimento de um sistema capaz de localizar e reconhecer os caracteres contidos numa placa de licença de um veículo. A imagem é previamente analisada por um algoritmo de procura por variações tonais padronizadas de maneira a restringir a área de análise do algoritmo principal do sistema. Este, por sua vez, binariza a imagem através de um algoritmo adaptativo e busca elementos que possuam dimensões próximas às dimensões esperadas dos caracteres da placa. O sistema busca encontrar uma seqüência de caracteres de dimensões aproximadamente iguais e para isso, varia um valor de limiar no processo de binarização conferindo maior robustez ao algoritmo. Uma vez encontrado um grupo de dígitos que satisfaçam alguns critérios prédefinidos, os caracteres são redimensionados e apresentados a duas redes neurais, uma para as letras e outra para os números.
Resumo:
A pneumonia nosocomial é a principal causa de infecção nosocomial em unidades de tratamento intensivo e possui alta morbi/mortalidade. A incidência cumulativa varia, conforme os autores, entre limites amplos desde 8% até 51%, dependendo do tipo de paciente e do uso de instrumentação das vias respiratórias. Nos casos específicos das pneumonias de má resolução e da pneumonia associada à ventilação mecânica, o diagnóstico é problemático devido à ausência de uma padronização definitiva, decorrente não só da grande variabilidade fisiopatológica como também da pouca acurácia dos critérios clínicos, microbiológicos e radiológicos. Estes fatos ensejaram a utilização progressiva de técnicas invasivas sofisticadas para coleta de amostras respiratórias endobrônquicas. Entretanto, a validação dessas técnicas para uso sistemático depende ainda de estudos que avaliem não só o seu custo/benefício em cenários clínicos diversos como também a comparação de seu desempenho para o diagnóstico com um padrão-ouro histopatológico. Além disso, o rendimento das técnicas invasivas é freqüentemente limitado quando são aplicadas em pacientes sob antibioticoterapia, que constituem a maioria dos casos em unidades de cuidados intensivos. A otimização desses testes, discutindo suas indicações e avaliando sua capacidade técnica para a confirmação ou exclusão de pneumonia, é justificada pela necessidade da instituição precoce e correta do tratamento, pois disto resulta menor mortalidade, redução de custos e permanência no hospital. Entre os testes que podem auxiliar no diagnóstico encontra-se o exame direto do lavado broncoalveolar, que proporciona resultados precoces e úteis para a tomada de decisão, mas não suficientemente testados em diferentes situações clínicas ou experimentais. Com o objetivo de avaliar o rendimento diagnóstico do exame direto precoce e das culturas quantitativas obtido por lavado broncoalveolar, estudou-se sua utilização em um modelo experimental de pneumonia provocada através de inoculação bacteriana intrabrônquica em ratos. O estudo comparou a acurácia do exame direto e dos exames culturais em três grupos de animais: Grupo A com pneumonia pneumocócica (37 animais); Grupo P com pneumonia por P. aeruginosa (26 animais) e Grupo B controle (10 animais), utilizando a histopatologia dos pulmões como teste de referência para o diagnóstico. Os Grupos A e P foram ainda randomizados em dois subgrupos cada, para tratamento ou não com antibióticos, usando penicilina no grupo pneumococo e amicacina no grupo Pseudomonas. Como resultado, observou-se que nos animais com pneumonia e ausência de antibióticos a pesquisa de bactéria fagocitada (BIC) no exame direto mostrou um rendimento elevado para o diagnóstico, sendo superior ao das culturas quantitativas. No grupo com pneumonia pneumocócica a BIC mostrou: S:94,4% a 100%, E:100%, VPP:100% e VPN:100%; e as culturas quantitativas mostraram: S:77,8%, E:100%, VPP:100%, VPN:40%. Nos com pneumonia por Pseudomonas a BIC obteve: S: 69%, E:100%; VPP:100% e VPN:71,4%); e as culturas quantitativas mostraram valores muito baixos: S:28,6%, E:100%, VPP:100% e VPN:50%). Nos animais com pneumonia pneumocócica sob tratamento antibiótico havia uma queda acentuada de sensibilidade das culturas quantitativas (S:21%) e, em menor grau da BIC (S:57,9%), mas sem perda da especificidade de ambos os exames. Ao contrário, nos animais com pneumonias por Pseudomonas sob tratamento não havia alteração no rendimento dos dois exames, cujos resultados foram semelhantes aos dos animais sem tratamento. Não havia diferenças de leitura da BIC para o diagnóstico, contando a sua positividade em macrófagos ou em neutrófilos infectados. A avaliação global dos casos estudados, reunindo todos os grupos (tratados e não-tratados) em ambos os modelos de pneumonia, mostrou que a acurácia do exame direto, representado pela pesquisa da BIC, foi superior (66%) ao das culturas quantitativas (53%). As conclusões principais do estudo foram: 1) o exame direto do lavado broncoalveolar (LBA) mostrou-se um teste útil e de alto rendimento para o diagnóstico de pneumonia quando realizado na ausência de antibióticos; 2) o LBA feito na vigência de antibióticos efetivos para a pneumonia perde mais de 50% de sua acurácia, mas não é afetado quando o antibiótico for ineficaz ou houver resistência ao mesmo; 3) a pesquisa de BIC no LBA é um exame de resultado precoce, de alta especificidade e com melhor rendimento do que as culturas quantitativas.
Resumo:
A alface é a hortaliça folhosa mais consumida no mundo. É uma rica fonte de vitaminas e sais minerais que está presente no cardápio diário de grande parte da população brasileira. O nitrogênio é o nutriente mais importante para a produção de alface. O excesso ou falta desse nutriente acarretam queda na produção e problemas de qualidade nutritiva, por excesso de nitrato. A dose recomendada de nitrogênio varia muito entre autores e órgãos oficiais. Uma parte do nitrogênio aplicado ao solo é perdida por lixiviação, contaminando os mananciais de água. Devido a isso é recomendada a sua aplicação em diversas etapas, cujo número também é variável nas recomendações. Este trabalho teve por objetivo determinar qual a dose de nitrogênio e seu modo de aplicação que proporcionam a maior produção, sem comprometer a qualidade da alface do tipo “lisa”, nas condições de clima e solo do município de Eldorado do Sul, região da Grande Porto Alegre, RS. Foram realizados dois estudos, um testando doses crescentes de nitrogênio sob a forma de uréia e o outro testando o parcelamento em diversas épocas do cultivo. Foram avaliados a produção de matéria fresca e seca, os teores de nitrogênio, amônio e nitrato no tecido seco, a extração e a eficiência do uso do fertilizante. Os resultados revelam que a dose de 200 kgha-1 foi a que proporcionou maior rendimento da cultura e que a dose de 400 kgha-1 diminui a produção. A extração de nitrogênio foi da ordem de 35,7 kgha-1 e os teores de nitrogênio, amônio e nitrato foram respectivamente de 2,45%; 651,7 mg.kg-1 e 153,6 mg.kg-1. O teor de nitrato na alface foi muito menor do que o considerado prejudicial a saúde humana. A eficiência do uso do fertilizante foi de 12,06% quando aplicado 200 kgha-1 de N em 3 épocas. A eficiência do uso do adubo foi aumentada em 26,35% com o parcelamento em 4 doses iguais de 50 kg ha-1, aplicadas no plantio e aos 15, 30 e 45 dias após, sem alterar a qualidade visual e nutricional da alface.
Resumo:
A tecnologia de produção agrícola convencional está baseada no alto consumo de energia fóssil – o petróleo –, devido, principalmente, ao uso intensivo de fertilizantes químicos, agrotóxicos, maquinaria pesada e combustíveis. Este modelo agrícola não é viável no longo prazo por dois motivos: além de ser de baixa eficiência energética, os aumentos crescentes do preço da energia, devido à perspectiva de escassez (recurso finito), afetam cada vez mais os custos de produção agrícola, tornando os preços dos produtos agrícolas proibitivos para a maioria das populações. Em segundo lugar, este modelo tem contribuído para a depauperização do solo (capital básico), através do desequilíbrio biológico e desestruturação física, além da contaminação ambiental e dos produtos produzidos. Dentro deste contexto, este trabalho procura mostrar a importância da análise da eficiência energética na empresa rural, ao lado da análise econômica. Através da programação linear, analisa a máxima eficiência energética e máxima eficiência econômica na empresa e respectivas estruturas de produção e consumo de recursos, considerando as variações no preço da energia. As principais conclusões foram: com a tecnologia hora em uso na agricultura, à uma eficiência econômica máxima da empresa rural, está associada uma eficiência energética mínima; a eficiência energética varia em sentido inverso à eficiência econômica; a medida que o preço da energia aumenta, a eficiência energética aumenta, a eficiência econômica cai, os recursos produtivos mais intensivos energeticamente (principalmente fertilizantes químicos), tornam-se menos competitivos, cedendo lugar aos menos intensivos energeticamente, como os adubos orgânicos Por fim, relaciona-se algumas sugestões para futuros trabalhos, enfocando principalmente o uso de tecnologias alternativas de produção, como: adubos orgânicos, tração animal, rotação e diversificação de culturas, adubação verde, energias alternativas, etc, com o intuito de: aumentar a eficiência energética, buscando a independência energética da empresa; melhorar o equilíbrio biodinâmico do solo, para garantir a produtividade no longo prazo; evitar a contaminação ambiental e do próprio homem, procurando produzir produtos biologicamente sadios, livres de resíduos tóxicos e, assim, garantir uma agricultura verdadeiramente autosustentável.
Resumo:
O gerenciamento de recursos hídricos visa solucionar conflitos resultantes do uso intensivo da água, resultado do crescimento econômico e populacional, bem como assegurar que a água, recurso natural, finito e insubstituível à vida, se mantenha com oferta adequada e preserve as funções hidrológicas, biológicas e químicas dos ecossistemas. Um dos instrumentos de suporte para esta atividade é a “outorga de uso”, licença emitida pelo Estado, para que o usuário possa derivar determinados volumes de água para atender suas necessidades. Para a instrução de um processo de outorga, é necessário o cotejo de duas grandezas fundamentais: a disponibilidade hídrica (oferta) e a demanda. A demanda pode ser estimada a partir do cadastramento de usuários, dinâmico e contínuo no tempo. A disponibilidade hídrica varia no tempo e no espaço e é estimada a partir da avaliação do regime hidrológico da bacia. Esta é a informação básica de apoio à decisão e possui diversas interpretações, função de particularidades jurídicas, sociais, ambientais e econômicas de cada região. Sendo assim, o objetivo da presente tese se insere na fase inicial de instrução do processo de outorga (planejamento) e a contribuição se concentra na avaliação de aspectos técnicos e conceituais que embasam duas etapas relativas à (i) avaliação de disponibilidades hídricas para outorga, definidas por curvas de permanência de vazões e considerando os aspectos de variabilidade, sazonalidade, aleatoriedade e erros de estimativas; (ii) gerenciamento da outorga, considerando o equacionamento do problema de outorga para atendimento da demanda, bem como a avaliação da influência de diferentes aspectos no atendimento da demanda e na conservação ambiental, através do balanço hídrico do sistema. Para o desenvolvimento da pesquisa foram utilizados dados fluviométricos existentes das bacias dos rios Vacacaí, Vacacaí-Mirim, Pardo, Pardinho e Baixo Jacuí, pertencentes à bacia do rio Guaíba, no Rio Grande do Sul. Os estudos com simulação de outorga foram aplicados às seções de referência definidas em estudo anterior na bacia do Baixo Jacuí. Foram estudados dois critérios para obtenção da curva de permanência de vazões. O primeiro aceita a hipótese de que a curva representa o risco ou probabilidade no período da amostra. Neste critério, tradicionalmente utilizado em hidrologia, a freqüência de excedência é calculada pelo processamento conjunto de toda série histórica de vazões. O segundo critério aceita a hipótese de que cada ano é um evento hidrológico independente e prevê o cálculo de uma curva de permanência de vazões para cada ano. Neste critério, a disponibilidade hídrica é caracterizada pela média das curvas e respectivo intervalo de confiança, o qual representa a variabilidade interanual das vazões. Para consideração da sazonalidade, foi adotado o critério de cálculo das curvas de permanência obtidas para cada mês do ano. Para o cotejo entre a disponibilidade hídrica (vazão de referência) e a demanda, foi utilizado um modelo de balanço hídrico otimizado, considerando todo sistema e vazões de referência como disponibilidade, desenvolvido em planilha eletrônica. A aplicação do modelo, considerando a variabilidade e sazonalidade da disponibilidade hídrica e diferentes critérios de outorga, permitiu avaliar oito diferentes aspectos do problema de outorga e concluir pela adequabilidade da técnica para seu planejamento, bem como análise de cenários futuros e cenários de racionamento. A grande diferença entre os valores outorgados com as disponibilidades estimadas pelos critérios da série toda e do ano a ano, indica que ambos devem ser considerados no planejamento da outorga, embora não sejam concorrentes entre si e a escolha entre eles reflita o risco a ser selecionado pelos planejadores para a outorga. Posteriormente, foi realizada uma análise do desempenho do modelo de proporção de áreas e de uma versão modificada deste, para transferência de informações fluviométricas de uma seção com dados para outra sem, a partir de uma pequena amostragem no local. Os resultados mostraram que o modelo modificado é uma técnica potencialmente mais adequada, para a síntese de informações em locais com poucos dados, do que a simples proporção de áreas e de técnicas de regionalização. Isso porque consegue sintetizar a influência de particularidades relativas a fatores antropogênicos, geomorfológicos e pedológicos. Foram realizadas, também, simulações de verificação das conseqüências ambientais das outorgas planejadas com o modelo otimizado, que mostraram que o critério de outorga, baseado em vazões de referência, é pouco agressivo ao ambiente. Isso devido à fraca influência na alteração do padrão de pulsos hidrológicos dos rios, devendo-se, porém, tomar cuidado quando do seu uso em sistemas sujeitos a obras de regularização.
Resumo:
Neste trabalho é feito um estudo do processo de dispersão e combustão de uma mistura gasosa, assim como uma avaliação de alguns dos vários métodos disponíveis para estimar os resultados de uma explosão de nuvem de gás inflamável-ar. O método Multienergia foi utilizado para estimar os campos de sobrepressão resultantes de explosões de nuvens de GLP em áreas congestionadas pela presença de árvores, próximas a esferas de armazenamento de gás. Foram considerados como áreas congestionadas propícias para geração de turbulência os hortos florestais como os comumente encontrados em torno de indústrias petroquímicas e refinarias de petróleo. Foram feitas simulações para áreas de horto florestal de formato quadrado variando entre 50.000 m2 e 250.000 m2 e altura de 10 m. Para avaliar o efeito da explosão sobre a esfera, o critério de risco se baseou num elongamento máximo de 0,2% dos tirantes críticos de sustentação da mesma. Foram avaliados os efeitos destas explosões sobre uma esfera de GLP de diâmetro externo de 14,5 m para distâncias de 10 a 100 m entre a esfera e a borda do horto. É mostrado que áreas congestionadas com no mínimo 100.000 m2 podem representar um risco para a integridade das esferas menos preenchidas com GLP. Do ponto de vista da segurança das unidades de armazenamento, foi visto com base nos resultados obtidos que é preferível manter um menor número de esferas com maior preenchimento do que dividir o volume de GLP disponível entre várias unidades. Foi estimado que para áreas com grau de congestionamento de 25% a distância mínima segura entre a borda do horto e a esfera varia entre 10 m, para hortos com área de 100.000 m2, e 87,6 m, para hortos de 250.000 m2 A influência do espaçamento das árvores, representada pelo grau de obstrução da área de passagem da frente de chama, também foi analisada, indicando o quanto sua alteração pode afetar a distância mínima segura para as esferas. Por fim são feitas recomendações quanto à distância mínima entre o parque de esferas e o horto, bem como outras formas de diminuir o risco representado por explosões oriundas da formação acidental de mistura inflamável no interior dos mesmos.
Resumo:
Neste trabalho é apresentado um método para medição de deslocamentos sem contato, utilizando sensores magnetoresistivos, os quais são sensibilizados pela variação do campo magnético produzido por um imã permanente em deslocamento no espaço. Os sensores magnetoresistivos possuem, internamente, uma ponte de Wheathestone, onde a resistência varia conforme varia o campo magnético, de modo que o circuito mais indicado para este caso é um amplificador e um filtro para cada sensor. O principal objetivo do trabalho é a obtenção de uma técnica para medir deslocamentos sem contato, e estender os resultados para medida de movimentos mandibulares. A montagem consiste de duas placas de celeron, distantes 30mm uma da outra e unidas por parafusos de polietileno. Em cada uma destas placas foram dispostos quatro sensores, num total de oito, sendo que para cada um deles existe um circuito de amplificação e filtragem do sinal de saída. Sob uma chapa de alumínio foi fixado este equipamento e uma mesa de calibração em 3D, a qual, após a obtenção da matriz de calibração, foi substituída por um emulador de movimento mandibular. Os parâmetros do modelo foram estimados através do método dos mínimos quadrados com auxílio do software Matlab, Release 12. Este software também foi utilizado para o sistema de aquisição de dados durante a realização dos experimentos. A imprecisão dos resultados obtidos na determinação dos deslocamentos, está na ordem de décimos de milímetros. O trabalho apresenta, também, o mapeamento do campo magnético do magneto utilizado nos experimentos através do software FEM2000 – Método de elementos finitos aplicado ao eletromagnetismo.
Resumo:
As soluções aquosas obtidas após o tratamento final de efluentes de processos de eletrodeposição de Cd contém baixas concentrações de íons Cd2+. Neste trabalho determinaram-se as melhores condições para a utilização de eletrodos de carbono vítreo reticulado (CVR) no polimento destas soluções. A eletrodeposição do íon Cd2+ sobre eletrodo de carbono vítreo reticulado de porosidades distintas, 30, 60 e 100 ppi, com e sem recobrimento com polipirrol, foi investigada em soluções aquosas aeradas de ácido sulfúrico e sulfato de potássio em pH 4,8. Sob condições potenciostáticas, uma elevada eficiência de remoção foi obtida para soluções contendo 5 e 10 mg L-1 de íon Cd2+, na faixa de potenciais entre –0,9 e –1,1 V para CVR e em –3,0 V para CVR recoberto com polipirrol (CVR-PPy0). Após cada experimento de eletrodeposição, a diminuição da concentração do íon Cd2+ no eletrólito foi monitorada por voltametria de redissolução anódica. Neste experimenteo, empregando um eletrodo de gota pendente de mercúrio sendo estes resultados comparados com medidas por espectrometria de emissão atômica (ICP). Para o eletrodo de CVR, neste intervalo de potenciais, -0,9 e –1,1 V, a eletrodeposição do íon cádmio é controlada por transporte de massa e a concentração de íons cádmio varia exponencialmente com o tempo, seguindo uma cinética de pseudo primeira ordem. Para a concentração 10 mg L-1 e usando eletrodo de CVR 30 ppi, as eficiências de corrente e de remoção determinadas a -1,1 V após 30 minutos de eletrólise foram, 38 % e 97% , respectivamente. Para eletrodo de CVR 60 ppi foram encontrados 30 % e 99 %, respectivamente. Para o eletrodo de CVR-PPy0 a maior eficiência de remoção encontrada foi de 84% após 90 minutos de eletrólise em –3,0 V, sendo a eficiência de corrente menor do que 2%. A presença de Cd metálico depositado na superfície do eletrodo de CVR e CVR-PPy0 depois da redução em –1,1 V e –3,0 V, respectivamente, foi confirmada por análise de Microscopia Eeletrônica de Varredura (MEV) e espectrometria de energia dispersiva (EDS).
Resumo:
A codificação de vídeo de modo a permitir a escalabilidade durante a transmissão tem se tornado um tópico de grande nos últimos anos. Em conjunto com um algorítmo de controle de congestionamento, é possível a criação de um ambiente de transmissão multimída mais apropriado. Esta dissertação apresente um algoritimo de codificação de vídeo escalável baseado em bit-planes. O modelo de codificação do video utiliza 3D-DCT para codificação espacial e temporal e um quantizador escalar semelehante ao empregado no MPEG 4. A técnica de escalabilidade em bit-planes implementada permite a divisão da saída de codificador em taxas complementares e com granularidade fina. Este algorítmo e parte integrante doprojeto SAM (Sistema Adaptativo Multimídia), que busca criar um ambiente de transmissão multimídia adaptativo em tempo real. Este projeto está em desenvolvimento na tese de doutorado de Valter Roesler. O algorítmo proposto e implementado é capaz de transmitir de forma unidirecional vídeos de baixa movimentação. Os resultados dos testes realizados com a implementação feita mostram que a solução proposta é flexível em realação a tecnologia disponível de transmissão através do ajuste no númerp de camadas e suas respectivas especificações de banda. Os testes realizados apresentaram um desempenho aceitável para codificação e decodificação de vídeo em tempo real. A taxa de compressão apresentou resultados satisfatórios na transmissao em ambientes de baixa velocidade para as camadas inferiores, bem como taxas de transmissão para ambientes em ADSL, cable modem e rede local para as camadas superiores. Com relação a qualidade do vídeo, esta varia de acordo com o grau de movimentação do mesmo. Por exemplo, no modelo "talking-head", comum em videoconferências, a qualidade se mostrou viável para ambientes de baixa velocidade (56 kbits/s).
Resumo:
Glicose é o principal substrato energético no SNC de mamíferos adultos, contudo o cérebro também é capaz de utilizar outros substratos, incluindo manose, frutose, galactose, glicerol, corpos cetônicos e lactato. Glicose é quase totalmente oxidada a CO2 e H2O, mas ela também é precursora de neurotransmissores, tais como glutamato, GABA e glicina. O metabolismo energético do SNC varia ontogeneticamente, visto o fato de que nas primeiras 2 horas após o nascimento, lactato é o seu principal substrato, glicose e corpos cetônicos servem como substratos nos 21 dias subseqüentes e, após este período, somente glicose predomina. A utilização de nutrientes é regulada de várias maneiras, tais como o transporte através das células endoteliais capilares, transporte através da membrana plasmática, variações na atividade enzimática e variações nas concentrações de nutrientes plasmáticos. Está bem estabelecido que a atividade funcional do SNC aumenta o metabolismo energético. Tal evento pode ser dependente da atividade da bomba Na+,K+-ATPase, a qual é requerida para restabelecer a homeostase iônica. O aumento da concentração de potássio extracelular de um nível basal 8-12 mM provoca excitação neuronal fisiológica. A concentração de potássio pode atingir 50-80 mM durante convulsões, isquemia ou hipoglicemia. O potássio liberado pela atividade elétrica é captado nos astrócitos através de processos dependentes e não dependentes de ATP. Neste estudo, observamos o efeito de diferentes concentrações de potássio extracelular (2.7, 20 e 50 mM), sobre a oxidação de glicose, frutose, manose e lactato a CO2 e a conversão a lipídios em córtex cerebral de ratos jovens (10dias) e adultos (60 dias). Considerando que a captação de deoxiglicose está relacionada com a atividade glicolítica, testamos a influência do potássio extracelular sobre este parâmetro. Os efeitos da ouabaína sobre a oxidação de glicose e captação de deoxiglicose foram testados para determinar se a influência de potássio extracelular era dependente da atividade da bomba Na+,K+-ATPase. Os efeitos da monensina (ionóforo de Na+) e bumetanide (inibidor do transportador de Na+/K+/2Cl-) foram também testados. O aumento da concentração de potássio extracelular aumentou a oxidação de glicose, frutose, e manose a CO2 em córtex cerebral de ratos adultos, contudo, este fenômeno não foi observado em ratos jovens. A oxidação de lactato aumentou com o aumento da concentração de potássio extracelular em ambos ratos jovens e adultos. Não houve diferença na oxidação de glicose e sobre a captação de deoxiglicose na presença de ouabaína. Monensina aumentou a captação de deoxiglicose em 2 minutos de incubação. Contudo, esta captação diminuiu em períodos de incubação de 1 hora e 10 minutos. Além disso, não houve efeito do bumetanide sobre o aumento causado pela alta concentração de potássio extracelular na oxidação de glicose.
Resumo:
O presente trabalho destina-se a apresentar a experiência de montagem e de validação de uma Bancada de Calibração de sensores para determinação da umidade relativa do ar com base nas teorias e normas existentes de psicrometria. A Bancada foi construída com base em normas internacionais, onde salienta-se a ASHRAE 41.1-1974, sendo uma evolução de trabalhos anteriormente desenvolvidos. A validação da bancada passa por uma verificação do funcionamento do sistema montado, buscando garantir que o mesmo é eficaz no que se propõe. Para isso, curvas de estabilidade em temperatura e umidade relativa do ar em função do tempo foram levantadas e analisadas dentro de uma certa faixa de operação, entre 30,50 e 44,50 ºC e para temperatura de bulbo úmido, entre 25,00 e 31,10 ºC. Para a estabilidade em umidade relativa do ar testada, a faixa varia de 57,20 a 74,46 %. Também foi verificado experimentalmente o comportamento da temperatura de bulbo úmido em função da velocidade do ar no escoamento, entre 1,25 e 5,00m/s. Para a comprovação desta verificação experimental, os dados coletados nos sensores e termômetros foram corrigidos através das equações de calibração e depois os mesmos foram comparados e estudados mediante uma análise de variância (ANOVA). Os resultados dos testes revelaram que a velocidade na faixa experimentada (1,25 a 5,00) m/s não gera uma diferença significativa na leitura dos sensores Um outro teste experimental foi elaborado para verificar o comportamento da temperatura de bulbo úmido em função da umidade relativa do ar para diversos elementos sensores de temperatura. (termômetros de Hg, sensores PT100, AD592 e termopar tipo K). Para esta verificação, os elementos sensores foram submetidos a uma velocidade de 5,00 m/s. Para cada nível de temperatura, três níveis de umidade relativa do ar foram analisadas. Os resultados mostram que a Bancada de calibração é um ambiente controlado dentro de uma faixa de temperatura e umidade relativa do ar, sendo um recurso a mais que pode ser usado no vasto campo da psicrometria.
Caracterização de núcleos celulares no adenocarcinoma primário de reto por análise de imagem digital
Resumo:
O câncer colorretal é um tumor maligno freqüente no mundo ocidental. É o terceiro em freqüência e o segundo em mortalidade nos países desenvolvidos. No Brasil está entre as seis neoplasias malignas mais encontradas e a quinta em mortalidade. Dos tumores colorretais, aproximadamente 40% estão localizados no reto. A sobrevida, em cinco anos, dos pacientes operados por câncer do reto varia entre 40% e 50%, estando os principais fatores prognósticos, utilizados na prática clínica corrente, baseados em critérios de avaliação clínico-patológicos. A avaliação das alterações morfométricas e densimétricas nas neoplasias malignas tem, recentemente, sido estudadas e avaliadas através da análise de imagem digital e demonstrado possibilidades de utilização diagnóstica e prognóstica. A assinatura digital é um histograma representativo de conjuntos de características de textura da cromatina do núcleo celular obtida através da imagem computadorizada. O objetivo deste estudo foi a caracterização dos núcleos celulares neoplásicos no adenocarcinoma primário de reto pelo método da assinatura digital e verificar o valor prognóstico das alterações nucleares da textura da cromatina nuclear para esta doença. Foram avaliados, pelo método de análise de imagem digital, 51 casos de pacientes operados no Hospital de Clínicas de Porto Alegre (HCPA) entre 1988 e 1996 e submetidos à ressecção eletiva do adenocarcinoma primário de reto, com seguimento de cinco anos pós-operatório, ou até o óbito antes deste período determinado pela doença, e 22 casos de biópsias normais de reto obtidas de pacientes submetidos a procedimentos endoscópicos, para controle do método da assinatura digital. A partir dos blocos de parafina dos espécimes estocados no Serviço de Patologia do HCPA, foram realizadas lâminas coradas com hematoxilina e eosina das quais foram selecionados 3.635 núcleos dos adenocarcinomas de reto e 2.366 núcleos dos controles da assinatura digital, totalizando 6.001 núcleos estudados por análise de imagem digital. De cada um destes núcleos foram verificadas 93 características, sendo identificadas 11 características cariométricas com maior poder de discriminação entre as células normais e neoplásicas. Desta forma, através da verificação da textura da cromatina nuclear, foram obtidos os histogramas representativos de cada núcleo ou conjunto de núcleos dos grupos ou subgrupos estudados, também no estadiamento modificado de Dukes, dando origem às assinaturas digitais correspondentes. Foram verificadas as assinaturas nucleares, assinaturas de padrão histológico ou de lesões e a distribuição da Densidade Óptica Total. Houve diferença significativa das características entre o grupo normal e o grupo com câncer, com maior significância para três delas, a Área, a Densidade Óptica Total e a Granularidade nuclear. Os valores das assinaturas médias nucleares foram: no grupo normal 0,0009 e nos estadiamentos; 0,9681 no A, 4,6185 no B, 2,3957 no C e 2,1025 no D e diferiram com significância estatística (P=0,001). A maior diferença do normal ocorreu no subgrupo B de Dukes-Turnbull. As assinaturas nucleares e de padrão histológico mostraram-se distintas no grupo normal e adenocarcinoma, assim como a distribuição da Densidade Óptica Total a qual mostra um afastamento progressivo da normalidade no grupo com câncer. Foi possível a caracterização do adenocarcinoma de reto, que apresentou assinaturas digitais específicas. Em relação ao prognóstico, a Densidade Óptica Total representou a variável que obteve o melhor desempenho, além do estadiamento, como preditor do desfecho.