109 resultados para Axiomatização dos Reais
Resumo:
Neste estudo investigam-se as possibilidades de Cenários Educacionais Informatizados como alternativas estratégicas de uso de produtos da tecnologia informática para o desenvolvimento de processos cognitivos. São propostos indicadores de aprendizagem na forma de Pegadas Cognitivas. Tais Pegadas são o resultado gráfico de uma distribuição espacial de pontos correspondentes aos indicadores de aprendizagem e suas dimensões nos cenários pesquisados. Em cada caso, a “pegada” resulta da ligação entre tais pontos, formando um diagrama onde a disposição dos indicadores, comparando-se as situações ideal e real, permitiu avaliar o desvio em que se encontra a situação real, comparativamente à situação ideal. Sua construção permitiu simbolizar a provisoriedade de cada situação de aprendizagem e inspirar ações para as correções que se fizerem necessárias. Utilizaram-se: software de modelagem computacional – Modellus; espaços virtuais de comunicação – chat, e-mail, listas de discussão, whiteboard, forms, entre outros; Mapas Conceituais/Mentais; imagens e representações; ações ligadas às atividades endógenas permanentes dos aprendizes em função de seu imaginário e dos espaços virtuais e recursos da telemática em atividades de aprendizagem, na área de físico-química, visando ao estudo de como ocorrem as reações químicas. A partir dos resultados obtidos realizou-se o confronto entre as possibilidades reais do ambiente com o imaginado, sobre o tema, por alunos do ensino médio que integram o grupo denominado Grupo Imagem. O caminho que representa a linha mestra deste referencial teórico encontra-se nas Ciências Cognitivas no que se refere às questões relativas às formas de representação, às estratégias cognitivas utilizadas pelo sistema humano de processamento de informação e às aplicações de modelagem computacional em situações de aprendizagem. Considerou-se uma abordagem que leva em conta arquiteturas cognitivas e influências do meio ambiente sobre a capacidade humana de aprender. Aprender no sentido de assimilar novas informações, armazená-las e, ao acessá-las, desenvolver estratégias cognitivas que promovam a evolução das estruturas do conhecimento, numa dinâmica caracterizada pela inovação, pela capacidade humana de estar constantemente em mudança, através de ações situadas, contextualizadas, na Sociedade da Informação, geradora da Sociedade do Conhecimento. Tal sociedade impõe desafios a ser enfrentados com estratégias que permitam a todos, independente de sua situação na escala social, a acessibilidade e a mobilidade informacional e de tecnologias cada vez mais especializadas em todas as áreas, sejam acadêmicas, econômicas ou de bem-estar pessoal que produzam não apenas a mundialização de recursos materiais e físicos, mas que incluam as diferenças de pensamentos e ações que permitem aos seres humanos serem individuais e únicos em sua essência. A Aprendizagem à Distância – AAD – utilizada neste fazer investigatório evidenciou competência para solucionar as dificuldades relativas à flexibilidade dos programas disponíveis para compor cenários educacionais que privilegiem a aprendizagem significativa, em escolas de ensino médio, por exigirem novos posicionamentos e novas habilidades de educandos e de educadores. Entre as habilidades de aprendizagem individual e coletiva que os aprendizes devem possuir ou desenvolver para cooperar com o grupo em AAD, destacam-se: autonomia, responsabilidade, liderança, capacidade para negociação e decisão, capacidade de inferência, dedução, possibilidade de realização de análise e síntese, regras de conduta que permitam a convivência e as trocas de conhecimentos.
Resumo:
A maioria das empresas interage com seus clientes através de computadores. Com o passar do tempo está armazenado nos computadores um histórico da atividade da empresa que pode ser explorado para a melhoria do processo de tomada de decisões. Ferramentas de descoberta de conhecimento em bancos de dados exploram este histórico a fim de extrair vários tipos de informação. Um dos tipos de informação que pode ser extraída destes tipos de bancos de dados são as regras de associação que consistem em relacionamentos ou dependências importantes entre itens tal que a presença de alguns itens em uma transação irá implicar a presença de outros itens na mesma transação. Neste trabalho são aplicadas técnicas de descoberta de conhecimento na área do comércio varejista de confecção. Foram detectadas algumas peculiaridades dos bancos de dados desta área sendo proposto um novo algoritmo para melhorar o desempenho da tarefa de extração de regras de associação. Para a validação dos resultados apresentados pelo algoritmo foi desenvolvido o protótipo de uma ferramenta para extração de regras de associação. Foram realizados experimentos com bancos de dados reais de uma empresa da área de comércio varejista de confecção para análise de desempenho do algoritmo.
Resumo:
A simulação computacional de processos é uma ferramenta valiosa em diversas etapas da operação de uma planta química, tais como o projeto, a análise operacional, o estudo da estratégia de controle e a otimização, entre outras. Um programa simulador requer, freqüentemente, o cálculo das propriedades termofísicas que fazem parte das equações correspondentes aos balanços de massa, energia e quantidade de movimento. Algumas dessas quantidades, típicas de operações baseadas no equilíbrio de fases (tais como a destilação fracionada e a separação flash), são as fugacidades e entalpias das fases líquida e vapor em equilíbrio. Contudo, o uso de modelos e correlações cada vez mais sofisticadas para representar acuradamente as propriedades termofísicas dos sistemas reais fez com que grande parte do tempo gasto numa simulação de processos seja devida à avaliação destas propriedades. Muitas estratégias têm sido propostas na literaturas a fim de se reduzir a carga computacional envolvida na simulação, estática e dinâmica, dos problemas de Engenharia Química. Esta diminuição do tempo de processamento pode muitas vezes ser determinante na aplicação ou não da simulação de processos na prática industrial, como, por exemplo, no controle automático. Esta dissertação aborda uma das alternativas para a redução do tempo computacional gasto na simulação de processos: a aproximação das funções que descrevem as propriedades termofísicas através de funções mais simples, porém de fácil avaliação. Estas funções, a fim de se garantir uma aproximação adequada, devem ser corrigidas ou atualizadas de alguma forma, visto que se tratam de modelos estritamente válidos em uma pequena região do espaço das variáveis, sendo, por isto, chamados de modelos locais. Partindo-se do estado atual desta técnica, é proposta nesta dissertação uma nova metodologia para se efetuar esta aproximação, através da representação global da propriedade mediante múltiplas funções simples, constituindo, desse modo, uma rede de modelos locais. Algumas possibilidades para a geração efetiva destas redes são também discutidas, e o resultado da metodologia é testado em alguns problemas típicos de separação por equilíbrio de fases.
Resumo:
A separação/remoção de óleos emulsificados em água foi estudada, utilizando um novo processo baseado nas técnicas de floculação pneumática em linha, seguida de separação por flotação (denominado de processo de Floculação-Flotação ou processo FF). A primeira etapa do estudo foi o projeto, construção e montagem de um sistema piloto de geração de emulsões, floculação pneumática em linha e de separação por flotação, instalado no Laboratório de Águas Oleosas, na Refinaria Alberto Pasqualini (REFAP S.A.), Canoas-RS. Após esta etapa, foram realizados estudos utilizando água oleosa sintética, visando caracterizar e otimizar os principais parâmetros da floculação pneumática, fase determinante no processo FF. Os resultados mostraram que a melhor eficiência, 93 %, foi obtida quando da utilização de um floculador tipo serpentina de 20 elementos de mistura (MS-20), uma concentração de 2 mg/L de floculante (PVA) e uma vazão de ar de 40 L/min. Esta eficiência correspondeu a uma concentração residual de óleo na água tratada de 10 mg/L. Foi demonstrado ainda que, independentemente do tipo de floculador e da vazão de água oleosa, a remoção de óleo é determinada pela perda de carga resultante da injeção de ar antes do floculador. No estudo do tratamento do efluente oleoso proveniente da saída do separador PPI (REFAP S.A.), os melhores resultados foram obtidos utilizando-se o Mafloc-489 (floculante catiônico de alto peso molecular), em uma concentração de 6 mg/L, proporcionando uma concentração residual de óleo no efluente tratado de 8 mg/L (91 % de remoção) O processo de Floculação-Flotação estudado, demonstrou ser também eficiente na remoção de outros poluentes do efluente, além do óleo. Nas melhores condições operacionais, foram removidos 87 % da turbidez, 90 % dos sólidos suspensos, 91 % do óleo e 56 % da demanda química de oxigênio (DQO), proporcionando, em apenas uma etapa de tratamento, um efluente tratado com níveis de poluentes analisados abaixo do padrão exigido pelo órgão ambiental Estadual (FEPAM). Os principais mecanismos envolvidos no processo FF estão relacionados com a irreversibilidade na adsorção do polímero sob turbulência e a conformação deste na interface óleo/água/ar. O alto grau de cisalhamento, resultado dos fluxos volumétricos de ar e água, e a maior “insolubilidade” (precipitação) do polímero na interface ar/água, facilitam a geração de grandes flocos aerados de estrutura fibrosa. Esses resultados e outros obtidos com diferentes efluentes reais e suspensões sólidas mostraram que o processo FF possui um elevado potencial como nova operação unitária de separação líquido1/líquido2, sólido/líquido ou sólido/líquido1/líquido2. As principais vantagens do FF são os baixos custos envolvidos (investimento e operacional), a simplicidade dos elementos construtivos (compactos), a confiabilidade nos resultados e sua elevada capacidade de tratamento (> 60 m3/m2/h).
Resumo:
Recentes terremotos e furacões mostraram quão vulneráveis são as estruturas às forças da natureza. Ainda em países desenvolvidos, existe alto risco a desastres naturais. Portanto, um dos principais desafios da Engenharia é a prevenção de desastres mediante o desenvolvimento de conceitos inovadores de projeto, para proteger eficientemente as estruturas, seus moradores e o conteúdo, dos efeitos destrutivos das forças ambientais. O tradicional procedimento de projeto de construções para prevenir falhas catastróficas é baseado na combinação de resistência e capacidade de deformação (ductilidade). Solicitações de baixos níveis provocadas por ventos ou sismos são freqüentemente idealizados com cargas laterais que devem ser resistidas só pela ação elástica da estrutura, enquanto que, em eventos moderados ou severos permite-se certos níveis de dano estrutural e não estrutural, mas não, colapso da mesma. Esta filosofia proporcionou a base da maioria dos códigos de construção (fundados em métodos estáticos equivalentes) desde princípios do século, com resultados satisfatórios. No entanto, a partir do estudo das características dinâmicas das estruturas surgem novos e diversos conceitos de proteção dos sistemas estruturais que tem sido desenvolvidos e ainda estão em expansão, entre os quais pode-se citar a dissipação de energia externa. Esta nova tecnologia consiste em incorporar na estrutura, elementos projetados especificamente para dissipar energia. Com isto, logra-se reduzir as deformações nos membros estruturais primários e portanto, diminui-se a demandada de ductilidade e o possível dano estrutural, garantindo uma maior segurança e vida útil da estrutura Graças a recentes esforços e ao particular interesse da comunidade científica internacional, estudos teóricos e experimentais têm sido desenvolvidos durante a última década com resultados surpreendentes. Hoje já existem sistemas de dissipação de energia aplicados com sucesso em países como Estados Unidos, Itália, Nova Zelândia, Japão e México. Recentemente este campo está-se estendendo na América do Sul. Dentro deste contexto, considerando o beneficio econômico e o melhor desempenho estrutural que implica a incorporação desta nova tecnologia, no presente trabalho abordou-se o estudo deste tipo de sistemas de proteção estrutural orientado ao uso de amortecedores metálicos. O trabalho dividiu-se em três partes principais: a) Projetar e construir um amortecedor metálico que usa as excelentes propriedades do chumbo para dissipar energia. b) Desenvolvimento de metodologias de análise e projeto de estruturas que incorporam amortecimento suplementar a fim de melhorar o seu desempenho estrutural. c) Avaliação da eficiência de sistemas externos de dissipação de energia em estruturas. A primeira parte consistiu em projetar e construir um amortecedor metálico para logo submetê-lo a numerosos testes com diferentes níveis de amplitude de deslocamento e freqüência a fim de avaliar suas propriedades mecânicas e desempenho. Os resultados são considerados altamente satisfatórios. Na segunda parte foram desenvolvidas ferramentas computacionais para pesquisa e docência na área da mecânica estrutural mediante as quais é possível simular o comportamento linear e não linear de estruturas que incorporam amortecimento suplementar Finalmente, apresenta-se um procedimento robusto para avaliar a eficiência dos sistemas dissipadores de energia baseado numa análise da confiabilidade estrutural. Através de vários exemplos com estruturas reais e teóricas se atingem os objetivos traçados no presente trabalho.
Resumo:
Neste trabalho são descritas a arquitetura e as propriedades características do protocolo PROFIBUS, nome dado a um entre os diversos protocolos existentes na área industrial. Utilizando uma versão do protocolo PROFIBUS desenvolvida no Laboratório de Instrumentação Eletro-Eletrônica da Universidade Federal do Rio Grande do Sul foi implementada uma rede composta por uma estação mestre e até 96 estações escravas. A fim de analisar o Tempo de Ciclo de Mensagem e o Tempo de Reação do Sistema foram realizados diversos testes, variando a taxa de comunicação utilizada, o tamanho dos quadros de comunicação e a quantidade de estações escravas que compunham a rede. No final foi feita uma comparação entre os valores práticos obtidos e valores calculados a partir de fórmulas teóricas. Os valores práticos obtidos possibilitam determinar a viabilidade da utilização desta rede em diversas aplicações reais.
Resumo:
O crescimento da população idosa é um fenômeno mundial. Os profissionais da Odontologia enfrentarão um novo desafio, uma vez que a condição de saúde bucal dos idosos é precária. Investigar os fatores relacionados à saúde bucal permitirá intervir no processo saúde-doença de forma mais eficaz. A higiene bucal é um fator local primordial na saúde bucal de todos os indivíduos. Em virtude do processo de envelhecimento ser agravado por certas condições predisponentes, os idosos tendem a perder a capacidade funcional para as atividades diárias. Sendo a higiene bucal uma atividade diária, acredita-se que também é afetada pela capacidade funcional. Desta forma, o presente estudo procurou avaliar, em pessoas idosas, a relação entre higiene bucal e capacidade funcional, principalmente no que tange a função manual. Índices de placa para dentes e próteses, uma escala de atividades da vida diária, teste de conhecimento, teste cognitivo e testes de função manual foram aplicados, em um grupo de idosos institucionalizados de Porto Alegre. A associação com o padrão de higiene bucal foi avaliada através de estudo de correlação e pela comparação de médias através do Teste t de Student Associações significativas foram observadas entre a escala de atividades da vida diária, função manual, estado cognitivo e conhecimento com medidas de higiene bucal. O presente estudo procurou contribuir para o melhor entendimento do processo saúde-doença no idoso, ao suscitar possíveis ligações e determinações até então pouco exploradas. Desta forma, será possível aprimorar as ferramentas de diagnóstico, buscando adequar planos de tratamento às reais necessidades de cada indivíduo, o que proporcionaria melhor qualidade de vida aos idosos.
Resumo:
O processo Spheripol é, atualmente, um dos mais utilizados na produção industrial de polipropileno e seus copolímeros. É composto por dois reatores tipo loop em série e, em alguns casos, um ou dois reatores tipo fase gás também em série. Neste trabalho é apresentado um modelo para os reatores loop do processo Spheripol. Os reatores loop são modelados como CSTR não ideais. O esquema cinético implementado é relativamente amplo, sendo capaz de englobar copolimerizações multisítio. Uma análise qualitativa do modelo é feita utilizando parâmetros cinéticos presentes na literatura e uma análise quantitativa do modelo é feita com base em dados reais de planta industrial. Ainda com base em dados de planta é feita uma estimação de parâmetros e a validação do modelo. Finalmente, o modelo com parâmetros estimados é aplicado num estudo de caso no qual também é criado um modelo de equilíbrio termodinâmico para a mistura reacional baseado na lei de Henry e na equação de estado de Peng-Robinson.
Resumo:
Uma aplicação distribuída freqüentemente tem que ser especificada e implementada para executar sobre uma rede de longa distância (wide-área network-WAN), tipicamente a Internet. Neste ambiente, tais aplicações são sujeitas a defeitos do tipo colapso(falha geral num dado nó), teporização (flutuações na latência de comunicação) e omissão (perdas de mensagens). Para evitar que este defeitos gerem comseqüências indesejáveis e irreparáveis na aplicação, explora-se técnicas para tolerá-los. A abstração de detectores de defeitos não confiáveis auxilia a especificação e trato de algoritmos distribuídos utilizados em sistemas tolerantes a falhas, pois permite uma modelagem baseada na noção de estado (suspeito ou não suspeito) dos componentes (objetos, processo ou processadores) da aplicação. Para garantir terminação, os algoritmos de detecção de defeitos costumam utilizar a noção de limites de tempo de espera (timeout). Adicionalmente, para minimizar seu erro (falasas suspeitas) e não comprometer seu desempenho (tempo para detecção de um defeito), alguns detectores de defeitos ajustam dinamicamente o timeout com base em previsões do atraso de comunicação. Esta tese explora o ajuste dinâmico do timeout realizado de acordo com métodos de previsão baseados na teoria de séries temporais. Tais métodos supõem uma amostragem periódica e fornececm estimativas relativamente confiáveis do comportamento futuro da variável aleatória. Neste trabalho é especificado uma interface para transformar uma amostragem aperiódica do atraso de ida e volta de uma mensagem (rtt) numa amostragem periódica, é analisado comportamento de séries reais do rtt e a precisão dee sete preditores distintos (três baseados em séries temporais e quatrro não), e é avaliado a influência destes preditores na qualidade de serviço de um detector de defeitos do estilopull. Uma arquitetura orientada a objetos que possibilita a escolha/troca de algoritmos de previsão e de margem de segurança é também proposta. Como resultado, esta tese mostra: (i) que embora a amostragem do rtt seja aperiódica, pode-se modelá-la como sendo uma série temporal (uma amostragem periódica) aplciando uma interface de transformação; (ii) que a série temporal rtt é não estacionária na maioria dos casos de teste, contradizendo a maioria das hipóteses comumente consideradas em detectores de defeitos; (iii) que dentre sete modelos de predição, o modelo ARIMA (autoregressive integrated moving-average model) é o que oferece a melhor precisão na predição de atrasos de comunicação, em termos do erro quadrático médio: (iv) que o impacto de preditores baseados em séries temporais na qualidade de serviço do detector de defeitos não significativo em relação a modelos bem mais simples, mas varia dependendo da margem de segurança adotada; e (v) que um serviço de detecção de defeitos pode possibilitar a fácil escolha de algoritmos de previsão e de margens de segurança, pois o preditor pode ser modelado como sendo um módulo dissociado do detector.
Resumo:
A área de Detecção de Intrusão, apesar de muito pesquisada, não responde a alguns problemas reais como níveis de ataques, dim ensão e complexidade de redes, tolerância a falhas, autenticação e privacidade, interoperabilidade e padronização. Uma pesquisa no Instituto de Informática da UFRGS, mais especificamente no Grupo de Segurança (GSEG), visa desenvolver um Sistema de Detecção de Intrusão Distribuído e com características de tolerância a falhas. Este projeto, denominado Asgaard, é a idealização de um sistema cujo objetivo não se restringe apenas a ser mais uma ferramenta de Detecção de Intrusão, mas uma plataforma que possibilite agregar novos módulos e técnicas, sendo um avanço em relação a outros Sistemas de Detecção atualmente em desenvolvimento. Um tópico ainda não abordado neste projeto seria a detecção de sniffers na rede, vindo a ser uma forma de prevenir que um ataque prossiga em outras estações ou redes interconectadas, desde que um intruso normalmente instala um sniffer após um ataque bem sucedido. Este trabalho discute as técnicas de detecção de sniffers, seus cenários, bem como avalia o uso destas técnicas em uma rede local. As técnicas conhecidas são testadas em um ambiente com diferentes sistemas operacionais, como linux e windows, mapeando os resultados sobre a eficiência das mesmas em condições diversas.
Resumo:
A divisão do processo de planejamento e controle da produção (PCP) em diferentes níveis hierárquicos é um dos mecanismos básicos para lidar com a incerteza. Por outro lado, a falta de integração entre estes níveis é apontada como uma dos obstáculos mais importantes à eficácia deste processo, uma vez que dificulta que as decisões tomadas nos diferentes níveis gerenciais sejam consistentes entre si. Este problema é particularmente importante em empreendimentos de construção, os quais, em função de sua complexidade e da incerteza envolvida, em geral requerem freqüentes modificações nos planos, podendo estas ser consideravelmente trabalhosas. O objetivo geral do presente trabalho consiste em propor diretrizes para a interligação do processo de planejamento e controle nos níveis de longo, médio e curto prazo, através da utilização de pacotes computacionais tradicionais, assim como contribuir para a consolidação e refinamento do modelo de PCP proposto por Formoso et al. (1999). O trabalho realizado foi dividido em três grandes etapas. A primeira delas compreendeu a realização de uma pesquisa bibliográfica. A segunda etapa consistiu no desenvolvimento de dois estudos de caso, realizados em empresas de construção do Estado da Bahia, uma delas atuante nos mercados de obras públicas e a outra em incorporações imobiliárias para a classe média-alta. Por fim, na terceira etapa foram analisados os resultados e propostas as diretrizes para a interligação dos diferentes níveis do PCP Entre as conclusões, pode-se destacar que a eficácia dos planos produzidos em pacotes computacionais depende fortemente da existência de um plano de ataque da obra, o qual deve ser discutido com a gerência da produção e explicitado graficamente, de forma a aumentar a transparência de processos. Quando o plano de longo prazo não é elaborado adequadamente, levando em conta as reais necessidades da gerência de produção, o esforço despendido na realização de alterações tende a ser muito grande, dificultando a utilização deste plano para controle em tempo real. O estudo também sugere um conjunto de indicadores que permitem avaliar o cumprimento de prazo e a aderência entre planos de diferentes níveis gerenciais. Estes indicadores são obtidos com relativa facilidade, a partir da utilização do pacote computacional MSProject. Finalmente, o estudo oferece algumas contribuições relativas a critérios para a definição de pacotes de trabalho, à medida que os planos necessitam serem detalhados nos níveis de médio e curto prazo.
Resumo:
O índice crioscópico é um dos parâmetros analíticos de precisão utilizados para determinar a qualidade físico-química do leite. É um valor diretamente ligado ao extrato seco do leite, mais especificamente em relação a presença, maior ou menor, de lactose e cloretos. A adição de água ao leite, como mecanismo de fraude, altera os valores do índice crioscópico. Em virtude disto, o mesmo é utilizado como um dos critérios para desclassificação de leite. O problema se estabelece quando os padrões determinados em legislação não condizem com as características reais do leite produzido. O presente trabalho objetivou comparar os resultados do índice crioscópico do leite tipo B “in natura” da bacia leiteira do Vale do Taquari com o valor estabelecido na legislação vigente, bem como observou as alterações deste parâmetro ao longo de um ano. O projeto foi desenvolvido no período de março de 2001 a fevereiro de 2002, com a participação de 10 propriedades produtoras de leite tipo B, onde as coletas foram realizadas mensalmente, perfazendo um total de 573 amostras no período. Os resultados analíticos foram obtidos mediante as análises de acidez, temperatura, densidade, gordura, extrato seco total (EST), extrato seco desengordurado (ESD) e índice crioscópico (IC). Quanto ao comportamento do índice crioscópico, o diagnóstico confirmou a necessidade imprescindível da implementação de parâmetros legais regionais, respeitando as características específicas de cada região. A pesquisa apresentou para o leite tipo B “in natura” do Vale do Taquari, um índice crioscópico médio de –0,537 °H, enquadrando-se no parâmetro estabelecido pela Instrução Normativa Nº 51 de 18/09/02, ou seja, máximo de –0,530 °H. Este índice também apresentou Valor médio mais baixo nos meses de junho e julho e as variações mensais individuais foram significativas. Estes comportamentos indicam que a alimentação ofertada ao rebanho influencia nestas alterações.
Resumo:
Um dos maiores desafios da sociedade moderna é a descoberta de novas alternativas para a destinação de resíduos gerados em processos produtivos na indústria, que diminuam a degradação ambiental visando o progresso sustentável. A mudança na forma de enfrentar o problema, passando a valorizar o resíduo tratando-o com “status” de matéria-prima, através da incorporação em misturas asfálticas, minimiza a exploração de matéria-prima natural com ganho ambiental, tecnológico e econômico. Nesta pesquisa, aplicam-se métodos tradicionais de laboratório e de campo, que possibilitam avaliar o comportamento estrutural e ambiental da camada asfáltica com os resíduos industriais incorporados. Apresentam-se as propriedades avaliadas, comparando-as com propriedades usualmente verificadas em misturas do tipo cbuq, analisando as vantagens e desvantagens, a fim de estabelecer metodologia padronizada para avaliação do desempenho das misturas asfálticas estudadas, auxiliando àqueles que tem interesse na utilização de “ melhor compreensão da natureza dos materiais e quais propriedades necessitam ser avaliadas para possibilitar o seu uso em aplicações de pavimentos. A aplicação da metodologia Marshall, de ensaios de resistência à tração e módulo de resiliência mostraram comportamento mecânico adequado, e as relações de MR/Rt forneceram indicativo de leve aumento na rigidez e vida de fadiga semelhante às misturas convencionais Para avaliação ambiental os métodos empregados basearam-se nas exigências preconizadas pela ABNT, referentes à amostragem, classificação, lixiviação e solubilização de resíduos, não sendo observadas alterações na emissão de contaminantes. Os resultados mostraram o potencial da abordagem realizada, demonstrando que podem ser aplicados os mesmos métodos, procedimentos e equipamentos usualmente empregados na pavimentação rodoviária. Por fim, apresentam-se metodologia empregada na implantação de um trecho experimental, sob ação de cargas reais de tráfego e variações climáticas, e proposta de monitoramento ao longo da vida útil do pavimento, a fim de verificar o comportamento e estabelecer padrões de desempenho de misturas asfálticas incorporadas com resíduos industriais.
Resumo:
A proposta deste trabalho, consiste na elaboração de uma ferramenta computacional para a medição de campos de velocidades em escoamentos com baixas velocidades (< 0,5 m/s) utilizando o processamento digital de imagens. Ao longo dos anos, inúmeras técnicas foram desenvolvidas com este objetivo. Para cada tipo de aplicação, uma técnica se aplica com maior ou menor eficiência do que outras. Para o caso de estudos em fluídos transparentes, onde o escoamento pode ser visualizado, técnicas que utilizam processamento digital de imagens vêm ganhando um grande impulso tecnológico nos últimos anos. Este impulso, é devido a fatores como: câmaras vídeo filmadoras de última geração, dispositivos de aquisição de imagens e componentes de processamento e armazenamento de dados cada vez mais poderosos. Neste contexto, está a velocimetria por processamento de imagens de partículas cuja sigla é PIV (particle image velocimetry). Existem várias formas de se implementar um sistema do tipo PIV. As variantes dependem, basicamente, do equipamento utilizado. Para sua implementação é necessário, inicialmente, um sistema de iluminação que incide em partículas traçadoras adicionadas ao fluido em estudo. Após, as partículas em movimento são filmadas ou fotografadas e suas imagens adquiridas por um computador através de dispositivos de captura de imagens. As imagens das partículas são então processadas, para a obtenção dos vetores velocidade. Existem diferentes formas de processamento para a obtenção das velocidades. Para o trabalho em questão, devido às características dos equipamentos disponíveis, optou-se por uma metodologia de determinação da trajetória de partículas individuais, que, apesar de limitada em termos de módulo de velocidade, pode ser aplicada a muitos escoamentos reais sob condições controladas Para validar a ferramenta computacional desenvolvida, imagens ideais de partículas foram simuladas como se estivessem em escoamento, através do deslocamento conhecido de vários pixels. Seguindo o objetivo de validação, foi utilizada ainda uma imagem real de partículas, obtida com o auxílio de um plano de iluminação de luz coerente (LASER) e câmaras de vídeo tipo CCD. O programa desenvolvido foi aplicado em situações de escoamento real e os resultados obtidos foram satisfatórios dentro da escala de velocidades inicialmente presumida.
Resumo:
O desempenho de placas cerâmicas esmaltadas sujeitas ao tráfego de pessoas tem sido alvo de inúmeras críticas, tanto por parte dos especificadores, em vista da carência de informações técnicas seguras, quanto por parte dos usuários, devido ao comportamento insatisfatório, muitas vezes registrado, em condições reais de utilização. Com o intuito de contribuir com o estudo desse assunto, procurou-se modelar o comportamento de placas cerâmicas esmaltadas submetidas a um processo abrasivo. Para tanto, desenvolveu-se um equipamento de abrasão que permitiu a aplicação variável de carga e a inserção de diferentes concentrações de abrasivo. Como variáveis de resposta, foram analisadas seis propriedades que podem estar relacionadas à percepção do fenômeno: reflexão especular, reflexão difusa, delta E, rugosidade média Ra, rugosidade média Rz e aspecto visual. Após desgaste, avaliou-se também a limpabilidade das superfícies, as quais revelaram tendência à maior impregnação de sujeira. A relação entre o comportamento obtido em laboratório com o desempenho em campo foi obtida através de um estudo de caso cujas placas revelaram significativo desgaste após poucos anos de utilização A partir da modelagem dos dados de campo foi possível constatar que a classificação visual mostrou os melhores parâmetros estatísticos, comportamento este também observado nos ensaios de laboratório. Dessa forma, a classificação visual constitui-se na propriedade selecionada para estimar a vida útil de placas cerâmicas esmaltadas sujeitas à abrasão provocada pelo tráfego de pessoas. Os modelos resultantes mostraram que a variação de aspecto, decorrente do ensaio de abrasão, e a variação do aspecto, decorrente do trânsito de pessoas em movimento livre, são proporcionais, respectivamente, à raiz quadrada do tempo e à raiz quadrada do tráfego. Portanto, existe uma relação constante entre tempo e tráfego que permite estimar o comportamento futuro do material. Para frenagem, resulta que a variação de aspecto é aproximadamente proporcional à raiz cúbica do tráfego. Utilizando a modelagem proposta, foi possível estimar a vida útil de quatro tipologias de placas cerâmicas, designadas: bege sem brilho, bege com brilho, marrom sem brilho e marrom com brilho.