28 resultados para Classes de capacidade de uso

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este trabalho tem por objetivo analisar a possibilidade do uso da técnica de análise por ultra-som como uma alternativa aos ensaios de tração para a avaliação das propriedades mecânicas de barras laminadas de aço baixo carbono. O método prevê a aplicação da técnica como uma opção econômica e ágil em programas de qualidade das características dos aços produzidos. Para o desenvolvimento deste estudo foi escolhido como material de análise o aço ASTM A36 na forma de barras redondas laminadas de 1 polegada de diâmetro. Foram adquiridas amostras de 15 corridas de produção deste aço sendo que as amostras de uma destas corridas foram submetidas a diferentes tratamentos térmicos. Foram realizadas medidas de velocidade sônica e avaliação da atenuação sônica por medidas de ganho com a aplicação de ondas longitudinais e com o uso de dois equipamentos diferentes e transdutores de 4, 5 e 15MHz. Esses resultados foram correlacionados com os dados de limite de escoamento, limite de resistência e alongamento na ruptura. Foi realizado um estudo metalográfico de tamanho de grão e do teor de inclusões, além de análise de composição química das amostras e a relação destes fatores com as propriedades acústicas. Foram comparados também os dados de velocidade e atenuação sônica das amostras apenas laminadas com os resultados obtidos com as amostras tratadas termicamente Como resultado, foi demonstrada a possibilidade do uso da técnica apresentada para estimar as propriedades mecânicas do aço estudado, em especial o limite de resistência, determinando a capacidade do uso do ultra-som para o controle das características mecânicas no processo produtivo deste e também de outros tipos de materiais metálicos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A produção de biomassa pelas culturas está relacionada à quantidade de radiação fotossinteticamente ativa (RFA) interceptada e absorvida pelas folhas, bem como à eficiência com que estas convertem a energia radiante em energia química, através da fotossíntese. Esta capacidade de conversão é considerada como sendo a eficiência de uso da RFA. Com o objetivo de avaliar a eficiência de uso da RFA do tomateiro, cultivado em diferentes ambientes, foram conduzidos experimentos em estufa plástica com tela lateral anti-insetos (CT), em estufa plástica sem tela (ST) e a céu aberto (Fora). Os trabalhos foram executados em duas épocas (primavera-verão e verão-outono), no ano agrícola de 1999/2000, no Centro de Pesquisa Veterinária Desidério Finamor - FEPAGRO, em Eldorado do Sul, RS. Foram feitas medições de matéria seca aérea e índice de área foliar (IAF) ao longo dos dois ciclos. Os fluxos de RFA incidente e transmitida foram registrados a cada 30 minutos. No conjunto de todos os dados o coeficiente de extinção da cultura foi de 0,57. A fração absorvida de RFA, em relação à RFA interceptada, foi de 0,90. O ambiente CT teve menos RFA incidente, mas proporcionou maior eficiência de uso de RFA (0,44 e 0,60 g de MS mol-1 de RFA nos primeiro e segundo ciclos, respectivamente). No ambiente Fora, com mais RFA incidente, houve menor eficiência de uso da RFA (0,30 e 0,32 g mol-1 de RFA nos primeiro e segundo ciclos, respectivamente), enquanto que o ambiente ST permitiu valores intermediários de eficiência de uso da RFA (0,45 e 0,53 g mol-1 de RFAint). A maior eficiência de uso da RFA, no interior de estufa, esteve associada ao maior IAF e à maior produção de biomassa da cultura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A visualização de informações congrega um conjunto de técnicas que têm por objetivo facilitar o entendimento de informações a partir de representações visuais. Nesta área, parte-se do pressuposto de que uma representação visual de dados ou informações proporciona uma forma mais simples e intuitiva de entendê-los e, com isso, inferir mais rapidamente e com maior precisão o seu significado. Normalmente, a tarefa de análise de dados é realizada com o auxílio de ferramentas de acordo com a natureza dos dados e do estudo sendo realizado. As técnicas de visualização de dados e informações não substituem ferramentas de análise específicas. Elas podem ser usadas como primeira aproximação do processo de análise, quando sintetizam de forma visual uma grande massa de dados, permitindo escolher partes do volume de dados para análise mais detalhada, ou como forma de apresentação de dados já reduzidos. Quando o subconjunto dos dados de interesse está disponível, a utilização de uma ferramenta de visualização proporciona maior agilidade nas análises e padrões na massa de dados podem ser descobertos visualmente. Uma das classes de técnicas de visualização utilizada nesta área é a icônica. Um ícone (ou glifo) é um objeto com geometria e aparência paramétricas, as quais podem ser arbitrariamente vinculadas a dados. A função de um ícone é agir como uma representação simbólica, que mostra as características essenciais de um domínio de dados ao qual o ícone se refere. Assim é possível obter uma visualização dos dados de uma forma mais clara e compacta. Em geral, ícones são utilizados para representar dados multidimensionais, ou seja, múltiplos atributos associados a uma posição num espaço qualquer, ou a entidades em estudo. O presente trabalho analisa o uso de ícones na visualização de informações. São discutidos os conceitos fundamentais de visualização de informações e sua relação com a área de mineração de dados. O uso de ícones em diversos trabalhos apontados na literatura é apresentado, sendo abordada a questão de geração automática de ícones, mais flexível do que os conjuntos fixos providos pelos sistemas de visualização estudados. Uma proposta para gerar ícones de forma automática baseada numa especificação paramétrica dos ícones é utilizada em um conjunto de dados característicos de espécimes animais estudados por biólogos do Departamento de Genética da UFRGS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

o Pó de Aciaria Elétrica (PAE) é um resíduo gerado em indústrias siderúrgicas que utilizam o Forno Elétrico a Arco (FEA) e a sucata como principal matéria-prima para a produção do aço. O PAE é composto por diferentes óxidos metálicos, entre eles o Zn, Cr, Pb e Cd. Devido às concentrações de Pb e Cdultrapassarem as pennitidas pela NBR 10004(1987), no ensaio de lixiviação, o PAE é classificado como resíduo perigoso Classe I. Este trabalho tem como objetivo o estudo da influência do PAEno desempenhomecânico e durabilidade de blocos de concreto para pavimentação. O programa experimental foi desenvolvido em duas etapas: a primeira. na qual foi fixada a relação água/cimento e a segunda, na qual foi fixado o índice de umidade, fator este relacionado com a capacidade de moldar os corpos-de-prova. Em ambas as etapas, o teor de adição do PAE empregado foi de 5%, 15% e 25% em relação à massa de cimento. Também foram moldados corpos-de-prova sem adição do resíduo (0%), utilizados como referência. Como ensaios complementares, foram detenninados o calor de hidratação, assim como a caracterização mineralógica e microestrutural de pastas de cimento com teores do PAE. Verificou-se que, nas duas etapas, os blocos contendo 15% de adição do PAE obtiveram melhor desempenho quanto à resistência à compressão axial. Para os ensaios de durabilidade, os blocos com o PAE mostraram-se com desempenho igual ou superior aos blocos que não o possuíam O PAE utilizado nos blocos de concreto, bem como em pastas de cimento, retardou os tempos de início e fim de pega. O cimento também pode agir como formador de uma matriz para encapsular os metais pesados contidos no pó de aciaria. Nos ensaios de caracterização ambiental, obselVou-seeste encapsulamento através da análise dos extratos lixiviados e solubilizados, onde as concentrações dos metais pesados, ao longo do tempo, diminuíram. Isto fez com que os blocos, contendo o resíduo em sua composição, fossem classificados neste trabalho como Classe II - não-inerte. Desta forma, a partir de um resíduo perigoso Classe L foi possível desenvolver, através do encapsulamento na matriz cimentante, um produto Classe 11.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A atrazina (ATZ) foi utilizada em experimentos de laboratório para estudos de mineralização e dessorção em amostras de Argissolo Vermelho (PV) e Vertissolo Ebânico (VE), sob campo nativo, com o intuito de identificar os atributos do solo que afetam estes processos. A influência da umidade do solo sobre a atividade microbiana foi avaliada variando-se os teores de umidade em 20, 40, 65 e 85% da capacidade de água disponível do solo (CAD) e aplicando-se 1,5 kg de princípio ativo ha-1 (menor dose recomendada (DR)). Para a avaliação do efeito das doses do herbicida ATZ sobre a atividade microbiana e sobre a taxa de degradação do herbicida foram feitas aplicações de 1x, 2x, 4x, 7x e 10x a DR. Na avaliação do efeito da matéria orgânica sobre a atividade microbiana e sobre a taxa de degradação da ATZ foi feita a aplicação de 10x a DR. Num estudo adicional foram testados quatro métodos de desinfestação de solos (fumigação, tindalização, autoclavagem e irradiação em forno de microondas). A determinação da ATZ na solução foi feita por cromatografia gasosa em extratos de metanol. A atividade microbiana foi monitorada pela evolução de CO2 e a microbiota foi avaliada pela contagem de unidades formadoras de colônias Os resultados indicam que a população microbiana apresenta maior atividade entre 65 e 85% de umidade da CAD e que o aumento das doses de aplicação da ATZ não provoca alterações relevantes na atividade microbiana. Aproximadamente 70% do herbicida aplicado fica sorvido ao solo, independentemente de dose de ATZ aplicada e da classe de solo estudada (PV e VE). As taxas de degradação da ATZ lábil foram baixas e dependentes de doses e tipos de solos, sendo maiores em doses mais elevadas e em solos com maior teor de C. Dentre os métodos de desinfestação, a irradiação em forno de microondas foi o mais adequado, uma vez que apresentou um comportamento similar à testemunha quanto à sorção do herbicida e foi eficiente na redução da população microbiana do solo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A simulação é uma das ferramentas mais utilizadas para a aplicação da análise sistêmica nos mais diversos estudos. Ao longo do tempo, vários modelos foram desenvolvidos para representar sistemas de recursos hídricos, utilizando a simulação. Dentre esses modelos, está o Propagar MOO, que simula a propagação de vazões em uma bacia hidrográfica, submetida à decisões operacionais de suprimento de demandas e de operação de reservatórios, introduzidas pelo usuário através de rotinas escritas na linguagem de programação Pascal Script. A utilização eficiente dessas rotinas permite ao usuário ampliar a capacidade e flexibilidade do modelo na representação de um sistema hídrico. Com o objetivo de contribuir na ampliação da flexibilidade do modelo Propagar MOO e de sua aplicabilidade à modelagem de sistemas de recursos hídricos em geral, bem como facilitar o estudo da linguagem de programação Pascal Script e motivar os profissionais da área no desenvolvimento de novas rotinas aplicadas ao modelo, foram implementadas, através do presente trabalho, rotinas genéricas contendo estratégias de planejamento do uso da água e de operação de reservatórios, bem como ferramentas para analisar seus resultados. Para ampliar essa contribuição, foi aprimorada a possibilidade de simulação da geração de energia hidrelétrica em pontos de uma rede hidrográfica, com a criação de novas ferramentas para esse fim, na estrutura interna do modelo. Por fim, para que o próprio usuário pudesse construir ferramentas para auxiliar na verificação dos resultados obtidos nas simulações, esse estudo apresenta a implementação de rotinas de uso geral para servir como exemplos de ferramentas de análise de dados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A informação é hoje um dos principais recursos nos ambientes de trabalho. A informação compreendida habilita as pessoas e as organizações a atingir seus objetivos e a adquirir conhecimento. Entretanto, pouco se sabe sobre como a informação é utilizada e como os trabalhadores de conhecimento aprendem durante a realização de suas atividades. Entender a natureza do trabalho de conhecimento e torná-lo produtivo é um desafio. Esta pesquisa analisa os modelos conceituais de processo de trabalho de conhecimento encontrados na literatura, que identificam formas de aumentar a produtividade do trabalhador mapeando os estímulos do ambiente externo e observando as atividades realizadas e os resultados produzidos. Entretanto, os modelos dão pouca atenção ao processo cognitivo utilizado pelo trabalhador de conhecimento. Nesta pesquisa, propõe-se a ampliação dos modelos existentes, contemplando a atividade cognitiva no processo e o conhecimento no resultado. A abordagem é baseada na utilização da informação como recurso e como produto. Os objetivos deste trabalho são compreender melhor a forma como é utilizada a informação por trabalhadores de conhecimento e verificar como diferentes níveis de complexidade de informação influenciam o processo de trabalho e os resultados produzidos. Para testar os componentes do modelo proposto, bem como as suas relações, foi realizado um experimento com analistas de investimento que, a partir de um cenário, avaliam uma empresa. Os resultados obtidos revelaram a aderência do modelo conceitual proposto à realidade. Tanto no modelo como na atividade investigada, o processo de trabalho mostrou-se complexo e dinâmico, onde o uso e a produção de informações foi constante. O mapeamento do processo de análise de investimentos identificou o foco do trabalho na capacidade do analista gerenciar as informações e produzir conhecimento. A complexidade das informações foi identificada como um fator de influência sobre o seu uso e sobre o desempenho do analista, mas condicionadas a que essas informações fossem antes interpretadas e percebidas como relevantes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tese discute três temas: políticas públicas, gestão tecnológica, e setor automotivo. Tendo por objetivo abreviar o ciclo de absorção e desenvolvimento de tecnologia, um volume expressivo de recursos tem sido transferido do setor público para o setor privado através do que é denominado de Política Pública Indutora (PPI). Os governos pretendem, assim, atrair aquelas empresas tecnologicamente mais capacitadas, na expectativa de que transfiram para a localidade onde se instalam o conhecimento que detêm. No Brasil, um dos setores-alvo deste tipo de política tem sido o automotivo, circunstância observada em diferentes momentos da história. Efetivamente, o Regime Automotivo Brasileiro pretende não apenas acelerar o desenvolvimento do país, mas também promover uma significativa transferência de tecnologia. A análise das PPI, por ser de extrema importância, é bastante influenciada e dificultada quer por seus defensores, quer por seus destratores, que as veêm sob os aspectos de sucesso ou não; mas, não bastasse essa dificuldade, há também o elevado conteúdo ideológico que sustenta as argumentações, que faz com que a avaliação se perca num quadro inconclusivo. Afinal, estas iniciativas são benéficas ou não para o país e para as economias regionais? Finalmente, a eficácia, e portanto o acerto desta estratégia só pode ser avaliado expost facto, quando já comprometidos, quiçá irremediavelmente, os recursos públicos. Por essa razão, este estudo desenvolve uma análise ex-ante das políticas públicas do tipo indutoras, fazendo uso de um modelo compreensivo que permite uma análise longitudinal, captando assim, as mudanças no ambiente. Entre outras, procurou-se responder à seguinte questão: é possível, hoje, inferir quanto à contrib uição, se positiva ou negativa, que o Regime Automotivo Brasileiro e os seus desdobramentos estaduais trarão à capacidade tecnológica no entorno da empresa atraída? O problema e a questão de pesquisa foram abordados, predominantemente, sob um enfoque qualitativo, e o método escolhido foi o estudo de caso. Com o auxílio do modelo proposto foi analisada e avaliada a potencialidade de aumento na capacidade tecnológica induzida pela instalação da unidade montadora da General Motors do Brasil, em Gravataí, Rio Grande do Sul. Ao final conclui- se que os benefícios previstos pelo Regime Automotivo Brasileiro, no que diz respeito a capacitação tecnológica local, dificilmente serão atingidos pela instalação de novas empresas automotivas ou a modernização das existentes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo estudar o comportamento mecânico de camadas de um solo residual areno-siltoso reforçado com a adição de fibras de polipropileno distribuídas aleatoriamente na massa de solo, sob carregamento estático, visando o assentamento de fundações superficiais. O estudo se baseou em duas etapas, uma de laboratório e outra de campo. O programa experimental de laboratório consistiu na realização de ensaios triaxiais adensados drenados a fim de se estudar o comportamento do solo residual e de misturas solo-fibra em termos de tensão-deformação-resistência. Foram analisadas tensões confinantes, comprimentos, teores e diâmetros de fibras de polipropileno. Também foi avaliado o comportamento ao longo de ciclos carga-descarga-recarga para o solo reforçado, a influência da velocidade de carregamento, bem como o comportamento do solo residual e do solo-fibra, não somente na umidade ótima e densidade máxima, como também nos ramos seco e úmido da curva de compactação, obtida sob energia Proctor Normal. Na etapa de campo foram construídos aterros experimentais com camadas de solo residual compactado e do mesmo reforçado com fibras, e sobre estes foram executadas provas de carga (placa circular) com o objetivo de avaliar o comportamento carga x recalque de fundações superficiais. Uma comparação entre os resultados de ensaios triaxiais realizados sobre amostras de solo reforçado reconstituídas em laboratório e sobre amostras retiradas em campo é apresentada. A análise global dos resultados permitiu identificar as alterações provocadas pela inclusão aleatória de fibras de polipropileno no solo residual de arenito. Os resultados dos ensaios de placa sobre camadas de solo compactado com e sem reforço fibroso demonstraram um aumento significativo da capacidade de suporte com a inclusão de fibras, além de uma redução considerável dos recalques, quando comparado ao comportamento do solo residual compactado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Na prática Brasileira os projetos de fundações são elaborados fi-eqüentemente com base em resultados de ensaios de SPr. Desde a década de 1960, novos ensaios de investigação de subsolo tem sido incorporados à prática geotécnica, complementando as infonnações obtidas no SPr, e fornecendo uma descrição mais detalhada das características do subsolo. Este trabalho tem como objetivo principal a análise do desempenho da metodologia corrente de previsão de capacidade de carga de estacas escavadas, a partir dos resultados de ensaios de Conepenetrometria (CPT), realizados em solos residuais. A experiência acumulada do ensaio de Cone a 1Úvel internacional é restrita a depósitos de solos sedimentares, havendo a necessidade de ampliação do banco de dados de provas de carga em solos de origem residual. Com o oQjetivo de relacionar resultados de ensaios de Cone (CPT) com o dimensionamento de estacas escavadas em solos residuais, foram utilizadas as metodologias propostas por Aoki & Velloso (1975), Bustamante & Gianeselli (1982) e Philipponnat (1986), comparando cargas de ruptura medidas e estimadas. As análises são aplicadas tanto à estimativa da resistência de atrito lateral (Pl) como da carga de ponta (PP) das estacas O banco de dados utilizado neste estudo é composto de 22 estacas escavadas com diâmetro entre 400 e 700 mm e comprimento entre 7,5 e 25,0 m, bem como 31 sondagens CPT com profundidades variando de 5,0 a 25,0 m. São utilizados resultados de Provas de carga no Estado do Rio Grande do Sul, sendo posteriormente ampliado para outros casos publicados da prática brasileira. Todas as 22 estacas escavadas analisadas foram ensaiadas através de Prova de carga do tipo SML, sendo o Método de Van der Veen (1953) utilizado como referência para obtenção da carga de ruptura. Conclui-se a partir do estudo dos casos que nenhum dos três métodos analisados, propostos por Aoki & Velloso (1975), Bustamante & Gianeselli (1982) e Philipponnat (1986), apresentou desempenho satisfatório para o conjunto de dados analisados. Em geral as cargas previstas foram superiores às cargas medidas, o que caracteriza uma condição contrária à segurança. Entre os métodos analisados, o proposto por Aoki & Velloso (1975) produziu a melhor relação entre cargas medidas com cargas estimadas, porém sugere-se a ampliação deste banco de dados previamente ao uso generalizado deste método na prática de engenharia sempre que as estimativas forem realizadas com base em resultados de ensaios CPr.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho propõe a utilização da arquitetura Trace como um sistema de detecção de intrusão. A arquitetura Trace oferece suporte ao gerenciamento de protocolos de alto nível, serviços e aplicações através de uma abordagem baseada na observação passiva de interações de protocolos (traços) no tráfego de rede. Para descrever os cenários a serem monitorados, é utilizada uma linguagem baseada em máquinas de estado. Esta linguagem permite caracterizar aspectos observáveis do tráfego capturado com vistas a sua associação com formas de ataque. O trabalho mostra, através de exemplos, que esta linguagem é adequada para a modelagem de assinaturas de ataques e propõe extensões para permitir a especificação de um número maior de cenários ligados ao gerenciamento de segurançaa. Em seguida, é descrita a implementação do agente de monitoração, componente-chave da arquitetura Trace, e sua utilização para detectar intrusões. Esse agente (a) captura o tráfego da rede, (b) observa a ocorrência dos traços programados e (c) armazena estatísticas sobre a sua ocorrência em uma base de informações de gerenciamento (MIB { Management Information Base). O uso de SNMP permite a recuperação destas informações relativas µa ocorrências dos ataques. A solução apresentada mostrou ser apropriada para resolver duas classes de problemas dos sistemas de detecção de intrusão: o excesso de falsos positivos e a dificuldade em se modelar certos ataques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O ferrato(VI) de potássio, composto fortemente oxidante, foi testado em uma coluna de absorção de gases a fim de remover o NO presente em gases oriundos de fontes fixas de queima de combustíveis fósseis. O poder oxidativo do ferrato(VI) e seu comportamento através da cinética de decaimento do NO foram avaliados com o propósito de melhor entender a reação de oxidação. O sistema lavador de gases foi constituído por três subsistemas: o primeiro, um cilindro contendo uma mistura de NO/N2 com concentrações de NO de 50 e 98 ppm; o segundo, os lavadores de gases, constituído por dois reatores/lavadores com capacidade de 1.000 mL que foram completados com 600 mL de solução lavadora e com 400 mL de anéis de Rasching de vidro e um terceiro, reator/lavador que continha 400 mL da mesma solução dos demais, sem os anéis; o terceiro subsistema, constituído por equipamentos analisadores de NO e NO2. Os equipamentos de medição foram os da marca Oldham, modelo TX 2000, para NO, com escala de medida de 0-100 ppm NO e TX 2000, para NO2, com escala de medida de 0-30 ppm NO2. O ferrato(VI) de potássio foi obtido via úmida e analisado por volumetria de oxidaçãoredução. Os testes de oxidação foram realizados à temperatura de 25oC ± 0,5oC e pressão de uma atmosfera. Inicialmente, testou-se técnicas padrões de remoção de NO de gases a frio. Hidróxido de sódio e hidróxido de potássio tem sido empregados comercialmente na remoção de NOx. As soluções de hidróxido de potássio e de sódio apresentaram a mesma remoção de NO quando a concentração inicial do NO no gás foi de 50 ppm. A maior eficiência de remoção de NO deu-se para a razão molar de 5 OH  / 1 NO em cinco minutos de tempo de detenção, utilizando solução de ferrato(VI): 86% para a concentração inicial de 50 ppm e 85% para a concentração inicial de 98 ppm. Os resultados experimentais mostram que a solução de ferrato(VI) de potássio apresentou eficiência de remoção 25% superior à das outras soluções testadas. Apesar das reações de oxidação do NO serem bastante complexas, em função dos resultados analíticos realizados em termos de nitritos e nitratos, pode -se concluir que o NO é oxidado a NO2 e este passa a NO2 - e NO3 2- em solução, confirmando o mecanismo proposto por diversos autores. A abordagem cinética mostrou que a reação de oxidação pelo íon ferrato(VI) é de primeira ordem em relação ao NO e a constante média de velocidade de reação resultante dos dados experimentais foi de 9,80 x 10-4 s-1. A viabilidade técnica do uso do ferrato(VI) de potássio como oxidante do NOx em torres absorvedoras de gases foi comprovada, pois o composto mostrou-se um eficiente oxidante para o NO nas condições testadas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O método de análise de solo Mehlich-1 em uso no RS e SC não é adequado para a avaliação da disponibilidade de fósforo em solos adubados recentemente com fosfatos naturais, além de, na comparação com o método da resina de troca iônica, freqüentemente apresentar coeficientes de determinação entre fósforo extraído do solo e parâmetros de plantas menores. Questiona-se também a adequaçãodos teores críticos de fósforo e potássio do solo e as doses de fertilizantes recomendadas atualmente, com base em calibrações feitas entre as décadas de 1960 a 1980, sob sistema convencional e amostragem da camada 0-20 cm de profundidade, para o sistema de plantio direto, com amostragem na camada 0-10 cm.Para equacionar alguns dos aspectos mencionados foram feitos três estudos. No primeiro, correlacionou-se o fósforo extraído, pelos métodos Mehlich-1 e resina de troca iônica, de 100 amostras de solos com diferentes classes de textura e teores de fósforo, com o objetivo de obter um índice de equivalência entre o fósforo determinado por ambos os métodos. No segundo estudo, foram enterradas lâminas de resina para avaliar a capacidade da resina em estimar a disponibilidade de fósforo para as plantas de milho e arroz em diferentes estádios de desenvolvimento. No terceiro estudo, utilizaram-se resultados de experimentos com doses de fósforo e potássio, cultivados com soja, trigo e milho, para re-calibrar os teores críticos de fósforo e potássio do solo pelo método Mehlich-1, e calibrar os resultados obtidos com o método Mehlich-3 e resina Os resultados obtidos no estudo 1 não permitiram estabelecer um índice de equivalência analítico entre os métodos Mehlich-1 e resina, pois a extração depende também da interação entre teores de fósforo e argila do solo. O método da resina enterrada foi eficiente para determinar a disponibilidade de fósforo para o arroz em solos inundados, mas pode não ser adequado para a cultura do milho. Os teores críticos de fósforo e potássio utilizados atualmente para recomendação de adubação estão subestimados, tanto para as amostras na camada 0-20, como na 0-10 cm de profundidade. As doses de fósforo e potássio, recomendadas para as culturas soja e milho, também estão subestimadas. Os coeficientes de determinação, obtidos entre o fósforo e o potássio determinados pelos métodos Mehlich-1 e resina e o rendimento das culturas soja, milho e trigo, foram maiores do que os obtidos com o Mehlich-3 para mesma relação.