1000 resultados para classes de capacidade de uso da terra
Resumo:
A visualização de informações congrega um conjunto de técnicas que têm por objetivo facilitar o entendimento de informações a partir de representações visuais. Nesta área, parte-se do pressuposto de que uma representação visual de dados ou informações proporciona uma forma mais simples e intuitiva de entendê-los e, com isso, inferir mais rapidamente e com maior precisão o seu significado. Normalmente, a tarefa de análise de dados é realizada com o auxílio de ferramentas de acordo com a natureza dos dados e do estudo sendo realizado. As técnicas de visualização de dados e informações não substituem ferramentas de análise específicas. Elas podem ser usadas como primeira aproximação do processo de análise, quando sintetizam de forma visual uma grande massa de dados, permitindo escolher partes do volume de dados para análise mais detalhada, ou como forma de apresentação de dados já reduzidos. Quando o subconjunto dos dados de interesse está disponível, a utilização de uma ferramenta de visualização proporciona maior agilidade nas análises e padrões na massa de dados podem ser descobertos visualmente. Uma das classes de técnicas de visualização utilizada nesta área é a icônica. Um ícone (ou glifo) é um objeto com geometria e aparência paramétricas, as quais podem ser arbitrariamente vinculadas a dados. A função de um ícone é agir como uma representação simbólica, que mostra as características essenciais de um domínio de dados ao qual o ícone se refere. Assim é possível obter uma visualização dos dados de uma forma mais clara e compacta. Em geral, ícones são utilizados para representar dados multidimensionais, ou seja, múltiplos atributos associados a uma posição num espaço qualquer, ou a entidades em estudo. O presente trabalho analisa o uso de ícones na visualização de informações. São discutidos os conceitos fundamentais de visualização de informações e sua relação com a área de mineração de dados. O uso de ícones em diversos trabalhos apontados na literatura é apresentado, sendo abordada a questão de geração automática de ícones, mais flexível do que os conjuntos fixos providos pelos sistemas de visualização estudados. Uma proposta para gerar ícones de forma automática baseada numa especificação paramétrica dos ícones é utilizada em um conjunto de dados característicos de espécimes animais estudados por biólogos do Departamento de Genética da UFRGS.
Resumo:
Este estudo foi realizado com o objetivo de conhecer e analisar como o Núcleo de Tecnologia Educacional de Terra Nova do Norte está capacitando os professores da rede pública de ensino em Informática da Educação; como essa capacitação é construída nos Laboratórios de Informática nas escolas; e como os professores estão fazendo uso do computador como ferramenta pedagógica. Pretendemos determinar quais são as dificuldades encontradas nesse tipo de capacitação, estabelecendo quais as reais perspectivas dos educadores e dos alunos do ensino fundamental; à luz dos resultados, elaboraremos um conjunto de sugestões com o intuito de melhorar o nível de qualidade de atuação dos envolvidos com tecnologia da informação e da comunicação. Além disso visitamos os núcleos de: Cuiabá, Cáceres, Diamantino, Nova Xavantina, Sinop e Terra Nova do Norte; os Laboratórios de Informática nos municípios de: Terra Nova do Norte, Colider, Itaúba, Claudia, Marcelândia, Feliz Natal e Sinop. Também visitamos os professores de sala de aula que atuam no Ensino Fundamental nessas escolas. Com dificuldades financeiras, sem meios de transporte próprio, com falta de pessoal técnico e especializado e com acumulo de funções e, conseqüentemente, sobrecarga de atividades, o Núcleo de Tecnologia Educacional de Terra Nova do Norte, através de seus especialistas, vem realizando um trabalho exaustivo, mas sem perspectiva: os cursos de capacitação relâmpagos não preparam os professores nem para funções elementares, muitos menos para funções complexas Para esses cursos, deve-se conceber uma carga horária mínima de 100 (Cem) horas/aula, resguardando a relação indissociável entre teoria e prática. A capacitação dos professores multiplicadores, que ainda acontece em nível básico, é a grande dificuldade que os especialistas do núcleo estão encontrando nesse processo, pois não há como dar uma boa capacitação em informática educacional se a maioria dos professores nunca sentaram em frente a um computador. Há necessidade de se rever com muito carinho esse processo de informatização das escolas públicas, tanto na dimensão epistemológica quanto na profissionalização. Há um grande compromisso e força de vontade do pessoal das escolas e dos núcleos, o que nos leva a afirmar que, se não fosse pela tenacidade desses professores o programa já estaria em fase terminal. O programa, portanto, necessita de mais apoio e de investimento em suas potencialidades técnica e pedagógica, pois do modo como está, pouco contribui para a democratização e a melhoria do ensino.
Resumo:
o Pó de Aciaria Elétrica (PAE) é um resíduo gerado em indústrias siderúrgicas que utilizam o Forno Elétrico a Arco (FEA) e a sucata como principal matéria-prima para a produção do aço. O PAE é composto por diferentes óxidos metálicos, entre eles o Zn, Cr, Pb e Cd. Devido às concentrações de Pb e Cdultrapassarem as pennitidas pela NBR 10004(1987), no ensaio de lixiviação, o PAE é classificado como resíduo perigoso Classe I. Este trabalho tem como objetivo o estudo da influência do PAEno desempenhomecânico e durabilidade de blocos de concreto para pavimentação. O programa experimental foi desenvolvido em duas etapas: a primeira. na qual foi fixada a relação água/cimento e a segunda, na qual foi fixado o índice de umidade, fator este relacionado com a capacidade de moldar os corpos-de-prova. Em ambas as etapas, o teor de adição do PAE empregado foi de 5%, 15% e 25% em relação à massa de cimento. Também foram moldados corpos-de-prova sem adição do resíduo (0%), utilizados como referência. Como ensaios complementares, foram detenninados o calor de hidratação, assim como a caracterização mineralógica e microestrutural de pastas de cimento com teores do PAE. Verificou-se que, nas duas etapas, os blocos contendo 15% de adição do PAE obtiveram melhor desempenho quanto à resistência à compressão axial. Para os ensaios de durabilidade, os blocos com o PAE mostraram-se com desempenho igual ou superior aos blocos que não o possuíam O PAE utilizado nos blocos de concreto, bem como em pastas de cimento, retardou os tempos de início e fim de pega. O cimento também pode agir como formador de uma matriz para encapsular os metais pesados contidos no pó de aciaria. Nos ensaios de caracterização ambiental, obselVou-seeste encapsulamento através da análise dos extratos lixiviados e solubilizados, onde as concentrações dos metais pesados, ao longo do tempo, diminuíram. Isto fez com que os blocos, contendo o resíduo em sua composição, fossem classificados neste trabalho como Classe II - não-inerte. Desta forma, a partir de um resíduo perigoso Classe L foi possível desenvolver, através do encapsulamento na matriz cimentante, um produto Classe 11.
Resumo:
Esta pesquisa apresenta e analisa uma experiência de trabalho cooperativo concebido como princípio educativo em uma Cooperativa de Produção Agropecuária (CPA) do Movimento dos Trabalhadores Rurais Sem Terra (MST). Inicialmente busco fazer uma contextualização da gestão atual do modelo de acumulação e reprodução do capital, seus principais desdobramentos e algumas de suas conseqüências, principalmente relacionadas ao mundo do trabalho urbano e rural, à cultura e à educação. Posteriormente abordo os pressupostos de uma concepção ampliada de educação, discutindo a centralidade ou não do trabalho na sociedade contemporânea. Ao desenvolver uma concepção ampliada de educação, recupero o papel do trabalho na formação humana e nas relações sociais; ao mesmo tempo discorro sobre as dimensões que assume o trabalho na produção capitalista, as contradições e as potencialidades do trabalho cooperativo, as dimensões que assume o trabalho na produção cooperativa e a concepção, os princípios, a forma organizativa da cooperação no interior do MST Em seguida trato sobre o caráter de classe dos trabalhadores camponeses, a sua formação específica no Brasil, as suas lutas e a formação histórica do MST. O trabalho de campo é realizado através do resgate histórico dos membros da Cooperativa pesquisada, desde a preparação do acampamento até os dias atuais. É no interior dessa trajetória, nas histórias de vida dos homens, mulheres e crianças que hoje fazem parte da COOPTAR, combinadas com a história educativa do MST, que o trabalho cooperativo, em seu efetivo acontecer, é concebido como princípio educativo, atuando na formação de sujeitos com identidade própria e específica.
Resumo:
A atrazina (ATZ) foi utilizada em experimentos de laboratório para estudos de mineralização e dessorção em amostras de Argissolo Vermelho (PV) e Vertissolo Ebânico (VE), sob campo nativo, com o intuito de identificar os atributos do solo que afetam estes processos. A influência da umidade do solo sobre a atividade microbiana foi avaliada variando-se os teores de umidade em 20, 40, 65 e 85% da capacidade de água disponível do solo (CAD) e aplicando-se 1,5 kg de princípio ativo ha-1 (menor dose recomendada (DR)). Para a avaliação do efeito das doses do herbicida ATZ sobre a atividade microbiana e sobre a taxa de degradação do herbicida foram feitas aplicações de 1x, 2x, 4x, 7x e 10x a DR. Na avaliação do efeito da matéria orgânica sobre a atividade microbiana e sobre a taxa de degradação da ATZ foi feita a aplicação de 10x a DR. Num estudo adicional foram testados quatro métodos de desinfestação de solos (fumigação, tindalização, autoclavagem e irradiação em forno de microondas). A determinação da ATZ na solução foi feita por cromatografia gasosa em extratos de metanol. A atividade microbiana foi monitorada pela evolução de CO2 e a microbiota foi avaliada pela contagem de unidades formadoras de colônias Os resultados indicam que a população microbiana apresenta maior atividade entre 65 e 85% de umidade da CAD e que o aumento das doses de aplicação da ATZ não provoca alterações relevantes na atividade microbiana. Aproximadamente 70% do herbicida aplicado fica sorvido ao solo, independentemente de dose de ATZ aplicada e da classe de solo estudada (PV e VE). As taxas de degradação da ATZ lábil foram baixas e dependentes de doses e tipos de solos, sendo maiores em doses mais elevadas e em solos com maior teor de C. Dentre os métodos de desinfestação, a irradiação em forno de microondas foi o mais adequado, uma vez que apresentou um comportamento similar à testemunha quanto à sorção do herbicida e foi eficiente na redução da população microbiana do solo.
Resumo:
A simulação é uma das ferramentas mais utilizadas para a aplicação da análise sistêmica nos mais diversos estudos. Ao longo do tempo, vários modelos foram desenvolvidos para representar sistemas de recursos hídricos, utilizando a simulação. Dentre esses modelos, está o Propagar MOO, que simula a propagação de vazões em uma bacia hidrográfica, submetida à decisões operacionais de suprimento de demandas e de operação de reservatórios, introduzidas pelo usuário através de rotinas escritas na linguagem de programação Pascal Script. A utilização eficiente dessas rotinas permite ao usuário ampliar a capacidade e flexibilidade do modelo na representação de um sistema hídrico. Com o objetivo de contribuir na ampliação da flexibilidade do modelo Propagar MOO e de sua aplicabilidade à modelagem de sistemas de recursos hídricos em geral, bem como facilitar o estudo da linguagem de programação Pascal Script e motivar os profissionais da área no desenvolvimento de novas rotinas aplicadas ao modelo, foram implementadas, através do presente trabalho, rotinas genéricas contendo estratégias de planejamento do uso da água e de operação de reservatórios, bem como ferramentas para analisar seus resultados. Para ampliar essa contribuição, foi aprimorada a possibilidade de simulação da geração de energia hidrelétrica em pontos de uma rede hidrográfica, com a criação de novas ferramentas para esse fim, na estrutura interna do modelo. Por fim, para que o próprio usuário pudesse construir ferramentas para auxiliar na verificação dos resultados obtidos nas simulações, esse estudo apresenta a implementação de rotinas de uso geral para servir como exemplos de ferramentas de análise de dados.
Resumo:
A informação é hoje um dos principais recursos nos ambientes de trabalho. A informação compreendida habilita as pessoas e as organizações a atingir seus objetivos e a adquirir conhecimento. Entretanto, pouco se sabe sobre como a informação é utilizada e como os trabalhadores de conhecimento aprendem durante a realização de suas atividades. Entender a natureza do trabalho de conhecimento e torná-lo produtivo é um desafio. Esta pesquisa analisa os modelos conceituais de processo de trabalho de conhecimento encontrados na literatura, que identificam formas de aumentar a produtividade do trabalhador mapeando os estímulos do ambiente externo e observando as atividades realizadas e os resultados produzidos. Entretanto, os modelos dão pouca atenção ao processo cognitivo utilizado pelo trabalhador de conhecimento. Nesta pesquisa, propõe-se a ampliação dos modelos existentes, contemplando a atividade cognitiva no processo e o conhecimento no resultado. A abordagem é baseada na utilização da informação como recurso e como produto. Os objetivos deste trabalho são compreender melhor a forma como é utilizada a informação por trabalhadores de conhecimento e verificar como diferentes níveis de complexidade de informação influenciam o processo de trabalho e os resultados produzidos. Para testar os componentes do modelo proposto, bem como as suas relações, foi realizado um experimento com analistas de investimento que, a partir de um cenário, avaliam uma empresa. Os resultados obtidos revelaram a aderência do modelo conceitual proposto à realidade. Tanto no modelo como na atividade investigada, o processo de trabalho mostrou-se complexo e dinâmico, onde o uso e a produção de informações foi constante. O mapeamento do processo de análise de investimentos identificou o foco do trabalho na capacidade do analista gerenciar as informações e produzir conhecimento. A complexidade das informações foi identificada como um fator de influência sobre o seu uso e sobre o desempenho do analista, mas condicionadas a que essas informações fossem antes interpretadas e percebidas como relevantes.
Resumo:
Esta tese discute três temas: políticas públicas, gestão tecnológica, e setor automotivo. Tendo por objetivo abreviar o ciclo de absorção e desenvolvimento de tecnologia, um volume expressivo de recursos tem sido transferido do setor público para o setor privado através do que é denominado de Política Pública Indutora (PPI). Os governos pretendem, assim, atrair aquelas empresas tecnologicamente mais capacitadas, na expectativa de que transfiram para a localidade onde se instalam o conhecimento que detêm. No Brasil, um dos setores-alvo deste tipo de política tem sido o automotivo, circunstância observada em diferentes momentos da história. Efetivamente, o Regime Automotivo Brasileiro pretende não apenas acelerar o desenvolvimento do país, mas também promover uma significativa transferência de tecnologia. A análise das PPI, por ser de extrema importância, é bastante influenciada e dificultada quer por seus defensores, quer por seus destratores, que as veêm sob os aspectos de sucesso ou não; mas, não bastasse essa dificuldade, há também o elevado conteúdo ideológico que sustenta as argumentações, que faz com que a avaliação se perca num quadro inconclusivo. Afinal, estas iniciativas são benéficas ou não para o país e para as economias regionais? Finalmente, a eficácia, e portanto o acerto desta estratégia só pode ser avaliado expost facto, quando já comprometidos, quiçá irremediavelmente, os recursos públicos. Por essa razão, este estudo desenvolve uma análise ex-ante das políticas públicas do tipo indutoras, fazendo uso de um modelo compreensivo que permite uma análise longitudinal, captando assim, as mudanças no ambiente. Entre outras, procurou-se responder à seguinte questão: é possível, hoje, inferir quanto à contrib uição, se positiva ou negativa, que o Regime Automotivo Brasileiro e os seus desdobramentos estaduais trarão à capacidade tecnológica no entorno da empresa atraída? O problema e a questão de pesquisa foram abordados, predominantemente, sob um enfoque qualitativo, e o método escolhido foi o estudo de caso. Com o auxílio do modelo proposto foi analisada e avaliada a potencialidade de aumento na capacidade tecnológica induzida pela instalação da unidade montadora da General Motors do Brasil, em Gravataí, Rio Grande do Sul. Ao final conclui- se que os benefícios previstos pelo Regime Automotivo Brasileiro, no que diz respeito a capacitação tecnológica local, dificilmente serão atingidos pela instalação de novas empresas automotivas ou a modernização das existentes.
Resumo:
A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.
Resumo:
O objetivo desta tese, "Economia Ecológica da Emissão Antropogênica de CO2 – uma Abordagem Filosófico-Científica sobre a Efetuação Humana Alopoiética da Terra em Escala Planetária utiliza o novo paradigma ambiental, que inclui as seguintes ferramentas teóricas originais: · o uso da filosofia da efetuação de Friedrich Wilhelm Joseph Schelling (1775-1854); · uso da teoria da auto-organização para demonstrar a existência de uma efetuação humana alopoiética de dimensões geológico-planetárias; · a articulação das implicações filosófico-científicas em uma via de recorrência que inclui a contingência, a reprocessualidade, a ética e a hermenêutica, além das abordagens e estratégias da interdisciplinaridade e da transdisicplinaridade; · uma nova estrutura de abordagem empírica para a coleta de dados ambientais, a matriz de amostragem ambiental. Nesta abordagem é proposto o posicionamento da Epistemologia Ambiental levando em conta o aspecto unificador sistêmico, após ser realizada a crítica das abordagens anarquista e pós-normal. A Economia é posta como antiexemplo no qual a Economia tradicional (Clássica, Neoclássica e Ambiental) é caracterizada como uma pseudociência, a partir das suas ilusões, dogmas, mitos, fantasias, falácias, falsa "lei", falsas metáforas e o abandono da ética e da visão sistêmica, sendo suas afirmativas (falsas) comparadas com os resultados das demais ciências e com a situação real do planeta Terra, no início do século XXI. O contraponto da Economia tradicional é estabelecido pela apresentação dos conceitos de ecodesenvolvimento, sustentabilidade, estado-estável, Economia Win-Win e o advento da Era Solar. A Economia Ecológica constitui uma nova Ciência Ambiental, passando atualmente por um processo de corrupção economicista. A apresentação da efetuação humana alopoiética é feita em duas principais escalas: a geológica e planetária. A efetuação humana alopoiética registrada em escala geológica inclui as seguintes formas: paisagística, pedogênica, litológica, geodinâmica (sísmica, vulcânica, hídrica, massiva e erosional), fossilífera e geoquímica. A efetuação humana alopoiética registrada em escala planetária apresenta as seguintes formas: climática, asteróide-meteorítica, da biodiversidade, aeroespacial próxima e extraplanetária. A emissão antropogênica de gás carbônico (CO2) na atmosfera terrestre, uma emissão difusa e sem fronteiras geográficas, é abordada com a Economia Ecológica. A partir da identificação do aquecimento global com "a conta entrópica devida à era da máquina" (Rifkin, 1992, p. 81) que a Natureza apresenta aos seres humanos, é feita a tentativa de estabelecer um valor real do fenômeno, tendo como ferramenta científica a abordagem emergética. A partir da constatação de que a efetuação humana alopoiética registrada até o final do século XX foi realizada de forma imprevista, imprudente e fora de controle e tendo em vista a emergência da Era da Terra-Pátria, no início do século XXI, e a necessidade de reorientar a globalização em curso, alternativas para a busca da efetuação terrestre consciente são apresentadas. As principais alternativas propostas para resolver (ou encaminhar a resolução) para a questão ambiental são as economicistas, da qualidade ambiental total (ISO 14000), as industrialistas (produção limpa, fator 4, fator 10 e capitalismo natural), as científicas (geofisiologia e terraforming), da Economia Ecológica e Economia Win-Win, as políticas (Política da Biosfera e Plano Marshall Global), as éticas, a utopia do reencantamento do Mundo e a proposta programática da Agenda 21. As conclusões e interpretações desta tese provém dos resultados obtidos pelo cálculo da emissão de CO2 para a atmosfera, sua emergia e valor real através de dados obtidos na Internet e da contextualização destes nas propostas existentes para o encaminhamento da questão ambiental. A mitologia de Ícaro na tentativa ambiciosa em se afastar da Natureza e o retorno à ela na forma de uma Fênix de ressurgimento autopoiético, fornece a visão do reenvolvimento ambiental humano.
Resumo:
O presente trabalho tem como objetivo estudar o comportamento mecânico de camadas de um solo residual areno-siltoso reforçado com a adição de fibras de polipropileno distribuídas aleatoriamente na massa de solo, sob carregamento estático, visando o assentamento de fundações superficiais. O estudo se baseou em duas etapas, uma de laboratório e outra de campo. O programa experimental de laboratório consistiu na realização de ensaios triaxiais adensados drenados a fim de se estudar o comportamento do solo residual e de misturas solo-fibra em termos de tensão-deformação-resistência. Foram analisadas tensões confinantes, comprimentos, teores e diâmetros de fibras de polipropileno. Também foi avaliado o comportamento ao longo de ciclos carga-descarga-recarga para o solo reforçado, a influência da velocidade de carregamento, bem como o comportamento do solo residual e do solo-fibra, não somente na umidade ótima e densidade máxima, como também nos ramos seco e úmido da curva de compactação, obtida sob energia Proctor Normal. Na etapa de campo foram construídos aterros experimentais com camadas de solo residual compactado e do mesmo reforçado com fibras, e sobre estes foram executadas provas de carga (placa circular) com o objetivo de avaliar o comportamento carga x recalque de fundações superficiais. Uma comparação entre os resultados de ensaios triaxiais realizados sobre amostras de solo reforçado reconstituídas em laboratório e sobre amostras retiradas em campo é apresentada. A análise global dos resultados permitiu identificar as alterações provocadas pela inclusão aleatória de fibras de polipropileno no solo residual de arenito. Os resultados dos ensaios de placa sobre camadas de solo compactado com e sem reforço fibroso demonstraram um aumento significativo da capacidade de suporte com a inclusão de fibras, além de uma redução considerável dos recalques, quando comparado ao comportamento do solo residual compactado.
Resumo:
Na prática Brasileira os projetos de fundações são elaborados fi-eqüentemente com base em resultados de ensaios de SPr. Desde a década de 1960, novos ensaios de investigação de subsolo tem sido incorporados à prática geotécnica, complementando as infonnações obtidas no SPr, e fornecendo uma descrição mais detalhada das características do subsolo. Este trabalho tem como objetivo principal a análise do desempenho da metodologia corrente de previsão de capacidade de carga de estacas escavadas, a partir dos resultados de ensaios de Conepenetrometria (CPT), realizados em solos residuais. A experiência acumulada do ensaio de Cone a 1Úvel internacional é restrita a depósitos de solos sedimentares, havendo a necessidade de ampliação do banco de dados de provas de carga em solos de origem residual. Com o oQjetivo de relacionar resultados de ensaios de Cone (CPT) com o dimensionamento de estacas escavadas em solos residuais, foram utilizadas as metodologias propostas por Aoki & Velloso (1975), Bustamante & Gianeselli (1982) e Philipponnat (1986), comparando cargas de ruptura medidas e estimadas. As análises são aplicadas tanto à estimativa da resistência de atrito lateral (Pl) como da carga de ponta (PP) das estacas O banco de dados utilizado neste estudo é composto de 22 estacas escavadas com diâmetro entre 400 e 700 mm e comprimento entre 7,5 e 25,0 m, bem como 31 sondagens CPT com profundidades variando de 5,0 a 25,0 m. São utilizados resultados de Provas de carga no Estado do Rio Grande do Sul, sendo posteriormente ampliado para outros casos publicados da prática brasileira. Todas as 22 estacas escavadas analisadas foram ensaiadas através de Prova de carga do tipo SML, sendo o Método de Van der Veen (1953) utilizado como referência para obtenção da carga de ruptura. Conclui-se a partir do estudo dos casos que nenhum dos três métodos analisados, propostos por Aoki & Velloso (1975), Bustamante & Gianeselli (1982) e Philipponnat (1986), apresentou desempenho satisfatório para o conjunto de dados analisados. Em geral as cargas previstas foram superiores às cargas medidas, o que caracteriza uma condição contrária à segurança. Entre os métodos analisados, o proposto por Aoki & Velloso (1975) produziu a melhor relação entre cargas medidas com cargas estimadas, porém sugere-se a ampliação deste banco de dados previamente ao uso generalizado deste método na prática de engenharia sempre que as estimativas forem realizadas com base em resultados de ensaios CPr.
Resumo:
Este trabalho propõe a utilização da arquitetura Trace como um sistema de detecção de intrusão. A arquitetura Trace oferece suporte ao gerenciamento de protocolos de alto nível, serviços e aplicações através de uma abordagem baseada na observação passiva de interações de protocolos (traços) no tráfego de rede. Para descrever os cenários a serem monitorados, é utilizada uma linguagem baseada em máquinas de estado. Esta linguagem permite caracterizar aspectos observáveis do tráfego capturado com vistas a sua associação com formas de ataque. O trabalho mostra, através de exemplos, que esta linguagem é adequada para a modelagem de assinaturas de ataques e propõe extensões para permitir a especificação de um número maior de cenários ligados ao gerenciamento de segurançaa. Em seguida, é descrita a implementação do agente de monitoração, componente-chave da arquitetura Trace, e sua utilização para detectar intrusões. Esse agente (a) captura o tráfego da rede, (b) observa a ocorrência dos traços programados e (c) armazena estatísticas sobre a sua ocorrência em uma base de informações de gerenciamento (MIB { Management Information Base). O uso de SNMP permite a recuperação destas informações relativas µa ocorrências dos ataques. A solução apresentada mostrou ser apropriada para resolver duas classes de problemas dos sistemas de detecção de intrusão: o excesso de falsos positivos e a dificuldade em se modelar certos ataques.
Resumo:
Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.
Resumo:
O ferrato(VI) de potássio, composto fortemente oxidante, foi testado em uma coluna de absorção de gases a fim de remover o NO presente em gases oriundos de fontes fixas de queima de combustíveis fósseis. O poder oxidativo do ferrato(VI) e seu comportamento através da cinética de decaimento do NO foram avaliados com o propósito de melhor entender a reação de oxidação. O sistema lavador de gases foi constituído por três subsistemas: o primeiro, um cilindro contendo uma mistura de NO/N2 com concentrações de NO de 50 e 98 ppm; o segundo, os lavadores de gases, constituído por dois reatores/lavadores com capacidade de 1.000 mL que foram completados com 600 mL de solução lavadora e com 400 mL de anéis de Rasching de vidro e um terceiro, reator/lavador que continha 400 mL da mesma solução dos demais, sem os anéis; o terceiro subsistema, constituído por equipamentos analisadores de NO e NO2. Os equipamentos de medição foram os da marca Oldham, modelo TX 2000, para NO, com escala de medida de 0-100 ppm NO e TX 2000, para NO2, com escala de medida de 0-30 ppm NO2. O ferrato(VI) de potássio foi obtido via úmida e analisado por volumetria de oxidaçãoredução. Os testes de oxidação foram realizados à temperatura de 25oC ± 0,5oC e pressão de uma atmosfera. Inicialmente, testou-se técnicas padrões de remoção de NO de gases a frio. Hidróxido de sódio e hidróxido de potássio tem sido empregados comercialmente na remoção de NOx. As soluções de hidróxido de potássio e de sódio apresentaram a mesma remoção de NO quando a concentração inicial do NO no gás foi de 50 ppm. A maior eficiência de remoção de NO deu-se para a razão molar de 5 OH / 1 NO em cinco minutos de tempo de detenção, utilizando solução de ferrato(VI): 86% para a concentração inicial de 50 ppm e 85% para a concentração inicial de 98 ppm. Os resultados experimentais mostram que a solução de ferrato(VI) de potássio apresentou eficiência de remoção 25% superior à das outras soluções testadas. Apesar das reações de oxidação do NO serem bastante complexas, em função dos resultados analíticos realizados em termos de nitritos e nitratos, pode -se concluir que o NO é oxidado a NO2 e este passa a NO2 - e NO3 2- em solução, confirmando o mecanismo proposto por diversos autores. A abordagem cinética mostrou que a reação de oxidação pelo íon ferrato(VI) é de primeira ordem em relação ao NO e a constante média de velocidade de reação resultante dos dados experimentais foi de 9,80 x 10-4 s-1. A viabilidade técnica do uso do ferrato(VI) de potássio como oxidante do NOx em torres absorvedoras de gases foi comprovada, pois o composto mostrou-se um eficiente oxidante para o NO nas condições testadas.