32 resultados para Mecanismo dinâmico de ação

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

30.00% 30.00%

Publicador:

Resumo:

As técnicas de espalhamento de luz estático e dinâmico foram utilizadas para a caracterização dos copolímeros de PMMA-benzazolas e do PMMA, em clorofórmio e THF nos regimes diluído e semi-diluído. Os copolímeros foram obtidos pela polimerização do metil-metacrilato na presença dos corantes orgânicos do tipo benzazolas, que caracterizam-se por apresentar uma intensa emissão de fluorescência através de um mecanismo de transferência protônica intramolecular no estado eletrônico excitado. Através da técnica de espalhamento de luz estático foram obtidos parâmetros macromoleculares como a massa molar ponderal média, o raio de giro e o segundo coeficiente virial, bem como o módulo osmótico reduzido e o parâmetro g, relacionado com a arquitetura do polímero em solução. Estes parâmetros indicam que os copolímeros e o PMMA em solução diluída comportam-se como cadeias lineares flexíveis e apresentam-se como esferas homogêneas em solução. Através da espectroscopia de correlação de fótons foram obtidas funções normalizadas de correlação temporal de intensidade correspondentes a um único processo dinâmico tanto para o PMMA como para os copolímeros em regime diluído, independentemente do solvente utilizado. Esta dinâmica corresponde à difusão das cadeias poliméricas em solução. Para as soluções em regime semi-diluído (5£c£30 g·L-1), as funções de correlação temporal de intensidade apresentaram um único decaimento exponencial correspondente a difusão cooperativa dos entrelaçamento das cadeias poliméricas em solução pode ser observado em ambos os solventes. O tempo de relaxação ( t) obtido sugere que o copolímero apresenta, neste regime de diluição, uma dinâmica diferente daquela observada para o PMMA. Portanto, a incorporação da benzazola na cadeia polimérica afeta a dinâmica do polímero tanto em THF como em clorofórmio. Para soluções contendo PMMA e o Copolímero 6 na concentração de 60 g·L-1 em THF observou-se o aparecimento de um segundo movimento, mais lento, nas funções normalizadas de correlação temporal de intensidade, sugerindo a formação de uma estrutura contínua em solução. O mesmo não ocorre utilizando-se clorofórmio como solvente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estudou-se o comportamento eletroquímico do ferro em solução aquosa de acetato de sódio 1M em valores de pH próximos a neutralidade. Foram utilizadas diferentes técnicas de pertubação de potencial, quais sejam a voltametria cíclica e a impedância. Os ensaios foram realizados com eletrodos rotatórios de disco e eletrodos rotatórios de disco e anel. Observou-se o papel preponderante da concentração de acetato na dissolução do ferro que aliado ao pH da solução são os fatores determinantes da cinética deste processo. Evidenciou-se a ocorrência de reações consecutivas e paralelas neste estudo. O mecanismo catalítico presente na dissolução do ferro em meio de acetato cresce de importância a medida que os potenciais se tornam mais anódicos. E proposto que o mecanismo reacional apresenta quatro espécies adsorvidas,quais sejam: [FeOHAc]-ada, FeOHada [Fe(OH)2Ac]-ada e [Fe(OH)sAc]-2ada,sendo esta última a espécie precursora da passivação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Óleo de soja epoxidado foi curado com os anidridos: dodecenilsuccínico (DDS), maleico (MAL), ftálico (FTA), succínico e hexahidroftálico (CH). As reações foram iniciadas com aminas terciárias tais como trietilamina (TEA), N,N’-dimetilanilina (ARO) e 1,4- diazobiciclo[2,2,2]octano (DABCO). Calorimetria diferencial de varredura (DSC) foi aplicada com êxito no estudo da reação de cura e usada para a determinação dos parâmetros cinéticos e termodinâmicos. Foram estudados os efeitos eletrônicos, os fatores estéreos e a rigidez do segmento diéster formado devido na conversão de grupos anidridos. Foi observado que os anidridos maleico e ftálico reagem mais rápido do que os outros anidridos. A influência do iniciador e da razão molar (anidrido/grupo epóxido) foi igualmente considerada. As propriedades mecânicas e térmicas das resinas epóxi curadas usando TEA como iniciador foram investigadas por análise térmica dinâmico-mecânica (DMTA) e termogravimétrica (TGA). Todas as amostras apresentaram características de materiais termofixos. Os materiais termofixos obtidos a partir de anidridos com estruturas rígidas (FTA, MAL e CH) mostraram alta temperatura de transição vítrea e densidade de reticulação. Quando um excesso de grupos epóxido foi usado (R= 0,5), a temperatura de transição vítrea do material diminuiu. As resinas epóxi exibiram estabilidade térmica até 300ºC. Um comportamento inesperado foi observado para aquelas resinas obtidas com o anidrido dodecenilsuccínico (DDS). A influência do grau de epoxidação do óleo de soja nas propriedades mecânicas e na temperatura de transição vítrea foi investigada. Quanto maior o conteúdo de grupos epóxido, maior é a Tg e a dureza do material. As resinas epóxi preparadas a partir de óleo de soja epoxidado mostram excelente resistência química em NaOH e ácido sulfúrico, mas resistência pobre quando em contato com solventes orgânicos (tolueno, acetona, gasolina e etanol).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho trata do desenvolvimento do projeto mecânico do mecanismo de aplicação de carga do sistema de deslocamento longitudinal do Simulador de Tráfego UFRGS DAERlRS. Esta é uma máquina utilizada para executar teste acelerado em pavimentos rodoviários. O sistema mecânico que executa o deslocamento longitudinal é composto de um chassi tipo carro que se movimenta de forma alternada dentro de uma estrutura metálica ao longo de 12 metros. Neste sistema mecânico deverá estar acop1ado um par de pneus para fazer a aplicação da carga por rolamento sobre a pista que estará sendo testada pelo simulador de tráfego. A cada ciclo completo um atuador hidráulico fará o respectivo carregamento sobre o garfo que guia os pneus, num único sentido, ou seja, no retomo o atuador suspende este mesmo garfo garantindo que não haja contato com a pista. A magnitude da carga aplicada deverá ser mantida constante e devidamente monitorada no decorrer dos ensaios. Para isso, conta-se com a imp1ementação de elementos elásticos e células de carga no conjunto. Para o desenvolvimento deste estudo foi empregada uma metodologia para o processo de projeto que se desdobra em quatro fases principais: Projeto Informacional, Projeto Conceitual, Projeto Preliminar e Projeto Detalhado. Tem-se como resultado deste 1rabalho o projeto mecânico do mecanismo de aplicação de carga do Simulador de Tráfego UFRGS-DAERlRS que poderá ser facilmente fabricado e imp1ementado no equipamento existente. O projeto foi elaborado considerando os itens montagem, manutenção e operação, o que resultará em aumento da sua performance durante sua utilização.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um dos requisitos naturais na modelagem de diversas aplicações na área de banco de dados é a utilização de um mecanismo para controle de versões. Esse mecanismo fornece suporte a um processo evolutivo. Tal suporte permite armazenar os diferentes estágios de uma entidade em tempos distintos, ou sob diferentes pontos de vista. Estudos recentes nessa área mostram a importância de incorporar ao modelo conceitual de banco de dados, um mecanismo para auxiliar no controle da evolução de versões. A evolução de versões apresenta problemas principalmente quando ocorre em uma hierarquia de composição. Por exemplo, se existem objetos compostos fazendo referência à objetos componentes que representam versões, então modificações nos componentes podem causar alterações nos objetos que os referenciam. Normalmente as ações relativas a essas modificações são a notificação ou a propagação de mudanças. Algumas propostas adicionam mecanismos de notificação e propagação ao modelo conceitual utilizado por aplicações não convencionais. Isso é importante porque mecanismos deste tipo auxiliam no controle da integridade de dados e na divulgação de informações sobre as mudanças realizadas no banco de dados. O objetivo do trabalho aqui descrito é apresentar um mecanismo de notificação e propagação, que trata da evolução de dados, para um modelo de versões. É definido um modelo de classes com propriedades e operações que permitem manter e manipular subscrições de eventos referentes à evolução de objetos e versões e reagir diante da ocorrência destes eventos. Para atender os requisitos das diferentes aplicações, esta proposta especifica três estratégias. Cada uma delas apresenta diferentes funcionalidades: notificação ativa (enviar mensagens sobre mudanças ocorridas); notificação passiva (armazenar informações sobre mudanças ocorridas) e propagação (alterar o conteúdo do banco de dados automaticamente). Para validar o mecanismo proposto, uma implementação é apresentada para o sistema Oracle 8.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A proteína ácida fibrilar glial (GFAP) é uma proteína da classe dos filamentos intermediários, exclusivamente expressa em astrócitos no sistema nervoso central (SNC). A função específica da fosforilação desta proteína é ainda desconhecida. No entanto, tem sido demonstrado que o equilíbrio dinâmico entre o estado fosforilado e desfosforilado de sítios específicos da GFAP pode regular a polimerização e despolimerização dos filamentos intermediários durante eventos de estruturação do citoesqueleto glial. Nosso grupo de pesquisa demonstrou que a fosforilação da GFAP em hipocampo de ratos jovens (P12-P16) é estimulada no mesmo nível por glutamato, via um receptor glutamatérgico metabotrópico do grupo II (mGluR II), e pela ausência de Ca2+ externo (presença de EGTA). Entretanto, o tratamento simultâneo com glutamato e EGTA não resulta em efeito sinergístico, sugerindo um mesmo mecanismo de ação para estas duas situações estimulatórias da fosforilação da GFAP (WofchuK & Rodnight, 1994; Kommers et al., 1999; Rodnight et al., 1997). Este mecanismo provavelmente não envolve reservas intracelulares de Ca2+ associadas a receptores de IP3, uma vez que mGluRs II estão envolvidos com o mecanismo de transdução de sinal via adenilato ciclase e não via hidrólise de fosfoinositídios. Uma hipótese proposta é de que o glutamato, via mGluR, bloqueia canais de Ca2+ tipo L, inibindo uma cascata de desfosforilação dependente de Ca2+, associada a GFAP (Rodnight et al., 1997). Interessantemente, os receptores rianodina (RyRs) presentes nas reservas intracelulares de Ca2+ reguladas por tais receptores estão associados com canais de Ca2+ tipo L (Chavis et al., 1996). Com base nestes dados, buscou-se neste trabalho avaliar se a modulação glutamatérgica da fosforilação da GFAP em fatias de hipocampo de ratos jovens envolve as reservas intracelulares de Ca2+ reguladas por RyRs e se o Ca2+ proveniente destas reservas atua de maneira semelhante ao Ca2+ oriundo do espaço extracelular. Nossos resultados mostraram que há uma evidente participação do Ca2+ proveniente das reservas intracelulares reguladas por RyRs no mecanismo modulatório da fosforilação da GFAP via ativação de mGluRs em fatias de hipocampo de ratos jovens, uma vez que a cafeína e a rianodina (agonistas de RyRs) revertem totalmente o efeito estimulatório do agonista glutamatérgico metabotrópico 1S,3R-ACPD sobre a fosforilação da proteína e este efeito da cafeína é inibido por dantrolene (antagonista de RyRs). Talvez o Ca2+ oriundo das reservas reguladas por RyRs tenha o mesmo papel do Ca2+ proveniente do espaço extracelular, ou seja, desencadeia uma cascata de desfosforilação associada à GFAP mediada pela calcineurina, uma vez que quelando o Ca2+ intracelular livre com BAPTA-AM, após a mobilização destas reservas, tal efeito não ocorre. A participação de receptores adenosina (AdoRs) e do AMP cíclico (AMPc) ainda permanece a ser estudada. Entretanto, é sabido que em ratos jovens a ativação de mGluRs aumenta a formação de AMPc potenciando o efeito de outros tipos de receptores, como os AdoRs e, provavelmente, isto é mediado por um mGluR II (Schoepp & Johnson, 1993; Winder & Conn, 1996). Neste trabalho mostrou-se justamente o possível envolvimento de tais mecanismos de transdução de sinal na modulação da fosforilação da GFAP, pois a adenosina deaminase (enzima que metaboliza adenosina endógena) e a forscolina (agente que estimula a enzima adenilato ciclase) alteraram o nível de fosforilação da GFAP. Estes resultados evidenciam o envolvimento das reservas intracelulares de Ca2+ reguladas por RyRs no mecanismo de transdução de sinal que modula o estado de fosforilação GFAP mediado pela ativação de mGluRs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O elevado grau de competição imposto pelo mercado tem gerado nas empresas uma maciça movimentação em busca de melhorias contínuas e radicais nos processos de produção. Desta forma, a busca e identificação de oportunidades de melhoria constitui-se em importante mecanismo de aumento do desempenho e potencial competitivo. No entanto, a sistematização deste procedimento/abordagem esbarra na complexidade das ferramentas conhecidas e atualmente disponíveis para aplicação rotineira na análise dos processos produtivos. Uma análise ou diagnóstico consistente exige, muitas vezes, a aplicação de diversas ferramentas, tornando o processo de identificação de oportunidades e implementação de melhorias exageradamente complexo e moroso. Este estudo identificou a real necessidade de desenvolvimento de uma abordagem eficaz e ao mesmo tempo mais simples de mapeamento das oportunidades de melhoria, propondo uma metodologia de análise de sistemas de produção baseada na utilização conjugada de duas clássicas ferramentas de diagnóstico: o mapeamento da cadeia de valor e o mecanismo da função produção. O estudo parte de uma revisão bibliográfica onde são abordados os principais conceitos concernentes ao processo de diagnóstico e melhoria de sistemas de produção, base para o desenvolvimento da metodologia proposta. O método é, a seguir, testado em um estudo de caso realizado junto a uma empresa fabricante de cores para pintura automotiva.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No presente trabalho, é investigado um método alternativo para remover as impurezas coloridas contidas no caulim ultrafino do Rio Jari (AP), mediante a adsorção seletiva com polímeros aquosolúveis. Apesar desse método (floculação seletiva) ser considerado inovador no tratamento de minérios ultrafinos, problemas como a alta sensibilidade do meio e o baixo rendimento, freqüentemente comprometem a sua aplicação em sistemas naturais. Nesse contexto, o presente trabalho enfatiza questões envolvendo a seletividade do processo, bem como os mecanismos e os fenômenos envolvidos na adsorção seletiva de uma das fases minerais, A caracterização do minério define o tipo de contaminante (anatásio) e as suas relações de contato com a caulinita (ausência de adesão física). Tal informação é útil na avaliação do rendimento ativo do processo. A eficiência na remoção do anatásio, frente ao ambiente específico do meio e em combinação com a intensidade de carga aniônica do polímero floculante, define a condição mais favorável em termos de adsorção e seletividade. Tal condição prevê a utilização de poliacrilamidas fracamente aniônicas em meio alcalino (pH = 10). o aumento da concentração de hexametafosfato-Na (dispersante de atividade eletrostática) provoca uma redução nos níveis de adsorção da caulinita, pelo aumento da sua carga superficial. A seletividade do processo atinge o seu nível máximo com a adição de poliacrilato-Na (dispersante que combina a atividade eletrostática com o efeito estérico). Nessas condições, remoções consideráveis de anatásio são obtidas, fazendo com que o teor de Ti02 contido no caulim caia de 1,3% para 0,2% e com que a recuperação permaneça em níveis satisfatórios (57%). o nível de adição química do meio também condiciona o grau de consistência dos flocos gerados, aumentando a cinética de sedimentação. Nos ambientes considerados altamente seletivos, a sedimentação dos flocos chega a atingir uma velocidade de 18 mm/minuto em polpa com 30% de sólidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Há aproximadamente meio século, as praias situadas a sotamar do Porto do Mucuripe, em Fortaleza, vem sofrendo intensos processos erosivos, creditados em grande parte à construção e ampliação deste porto. O fato é que o acentuado crescimento urbano da capital cearense ocasionou a fixação de dunas e a quebra do fluxo longitudinal de sedimentos em seu litoral, resultando no recuo da linha de costa e na necessidade de intervenção antrópica por meio de obras rígidas que viessem a garantir a preservação da infra-estrutura existente nos trechos mais afetados. Como conseqüência da fixação das praias, o suprimento de material sedimentar passou a ficar retido, enquanto que o potencial de transporte das ondas se preservou. A quebra deste equilíbrio dinâmico acarretou a transferência dos processos erosivos para as praias adjacentes, o que tornou-se um problema cada vez maior, pois as soluções adotadas nestas praias eram idênticas às anteriores. As conseqüências deste processo para uma cidade como Fortaleza, onde o turismo é uma das principais fontes de renda, são graves, dado que como resultado final, encontramos longos trechos de praias com a balneabilidade comprometida e perda de qualidade visual. O litoral situado a oeste da capital é limitado à direita pela foz do Rio Ceará e à esquerda por um promontório rochoso, onde situa-se a Ponta do Pecém. Este trecho compreende aproximadamente 30 km de praias arenosas, com granulometria média e fina, e com ondas incidindo sobre a costa de forma obliqua, o que as torna o principal mecanismo de transporte de sedimentos. A ocupação urbana concentra-se principalmente nas praias mais próximas a Fortaleza, onde observa-se ainda, o afloramento de rochas de praia e grande perda de material sedimentar, fornecendo indícios da transferência dos processos erosivos da orla marítima da capital para estas praias. Com a conclusão das obras do Porto do Pecém e de um pólo industrial que visa desfrutar da localização estratégica deste porto, é natural que ocorra uma intensificação nos processos de ocupação urbana das praias próximas à área. Tal constatação motivou um trabalho de modelagem da dinâmica desta zona com o objetivo de nortear um plano de uso e ocupação das áreas localizadas próximas à praia, de forma que se possa prever o comportamento da linha de costa e evitar que sejam repetidos certos equívocos como a construção em zonas de forte dinâmica e a fixação das fontes primárias de fornecimento de sedimentos, que são as dunas frontais. Dada a disponibilidade de dados, bons processadores e aos custos significativamente reduzidos da modelagem numérica, adotou-se o pacote GENESIS – RCPWAVE, que além de ser de domínio público, é a base do sistema de modelagem de linha de costa adotado pelo CERC (Coastal Engineering Research Center), U.S.A., para aplicações em costa aberta, em regiões sujeitas às intervenções humanas. A calibração do modelo se fez considerando as linhas de praia medidas em 1974 pela DHN e em 2001 com o uso de GPS. Os dados de onda utilizados foram obtidos por um ondógrafo direcional do tipo Waverider, instalado a uma profundidade de 18 metros nas proximidades da Ponta do Pecém. Os dados relativos ao modelo conceitual dos processos predominantes na região, como: contribuições externas, variação granulométrica e variações sazonais de perfis foram obtidos de levantamentos bibliográficos de trabalhos anteriores. Por último, informações relativas às estruturas existentes e seu comportamento, ao afloramento de formações rochosas e o último levantamento da linha de praia, foram obtidas através de trabalhos de campo. De uma forma geral, o comportamento previsto pelo modelo mostrou-se semelhante ao observado nos diferentes levantamentos. Considerando-se as limitações dos processos envolvidos no levantamento de dados, onde tanto a carta da DHN quanto o mapeamento por satélite estão sujeitos a imprecisões e ainda, que a série de dados confiáveis de ondas para a região possuía apenas dois anos, é importante notar que, em linhas gerais, a formulação matemática do modelo representou satisfatoriamente os processos envolvidos. Os resultados fornecidos possibilitam a extrapolação da evolução da linha de costa e indicam pontos de provável recuo ou avanço da praia, norteando a sua ocupação. A ferramenta gerada proporciona ainda a avaliação do impacto de intervenções por meio de estruturas rígidas ou engordamento de praia ao longo do tempo e gera uma estimativa dos valores de deriva litorânea para os diferentes trechos de praia, possibilitando avaliar os efeitos das intervenções nas praias adjacentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As redes neurais podem ser uma alternativa aos modelos paramétricos tradicionais para a precificação de opções quando a dinâmica do ativo primário não for conhecida ou quando a equação associada à condição de não-arbitragem não puder ser resolvida analiticamente. Este trabalho compara a performance do modelo tradicional de Black-Scholes e as redes neurais. Os modelos foram utilizados para precificar e realizar a cobertura dinâmica das opções de compra das ações de Telebrás. Os resultados obtidos sugerem que as redes neurais deveriam ser consideradas pelos operadores de opções como uma alternativa aos modelos tradicionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As técnicas utilizadas em sistemas de reconhecimento automático de locutor (RAL) objetivam identificar uma pessoa através de sua voz, utilizando recursos computacionais. Isso é feito a partir de um modelamento para o processo de produção da voz. A modelagem detalhada desse processo deve levar em consideração a variação temporal da forma do trato vocal, as ressonâncias associadas à sua fisiologia, perdas devidas ao atrito viscoso nas paredes internas do trato vocal, suavidade dessas paredes internas, radiação do som nos lábios, acoplamento nasal, flexibilidade associada à vibração das cordas vocais, etc. Alguns desses fatores são modelados por um sistema que combina uma fonte de excitação periódica e outra de ruído branco, aplicadas a um filtro digital variante no tempo. Entretanto, outros fatores são desconsiderados nesse modelamento, pela simples dificuldade ou até impossibilidade de descrevê-los em termos de combinações de sinais, filtros digitais, ou equações diferenciais. Por outro lado, a Teoria dos Sistemas Dinâmicos Não-Lineares ou Teoria do Caos oferece técnicas para a análise de sinais onde não se sabe, ou não é conhecido, o modelo detalhado do mecanismo de produção desses sinais. A análise através dessa teoria procura avaliar a dinâmica do sinal e, assumindo-se que tais amostras provêm de um sistema dinâmico não-linear, medidas qualitativas podem ser obtidas desse sistema. Essas medidas não fornecem informações precisas quanto ao modelamento do processo de produção do sinal avaliado, isto é, o modelo analítico é ainda inacessível. Entretanto, pode-se aferir a respeito de suaO problema analisado ao longo deste trabalho trata da busca de novos métodos para extrair informações úteis a respeito do locutor que produziu um determinado sinal de voz. Com isso, espera-se conceber sistemas que realizem a tarefa de reconhecer um pessoa automaticamente através de sua voz de forma mais exata, segura e robusta, contribuindo para o surgimento de sistemas de RAL com aplicação prática. Para isso, este trabalho propõe a utilização de novas ferramentas, baseadas na Teoria dos Sistemas Dinâmicos Não-Lineares, para melhorar a caracterização de uma pessoa através de sua voz. Assim, o mecanismo de produção do sinal de voz é analisado sob outro ponto de vista, como sendo o produto de um sistema dinâmico que evolui em um espaço de fases apropriado. Primeiramente, a possibilidade de utilização dessas técnicas em sinais de voz é verificada. A seguir, demonstra-se como as técnicas para estimação de invariantes dinâmicas não-lineares podem ser adaptadas para que possam ser utilizadas em sistemas de RAL. Por fim, adaptações e automatizações algorítmicas para extração de invariantes dinâmicas são sugeridas para o tratamento de sinais de voz. A comprovação da eficácia dessa metodologia se deu pela realização de testes comparativos de exatidão que, de forma estatisticamente significativa, mostraram o benefício advindo das modificações sugeridas. A melhora obtida com o acréscimo de invariantes dinâmicas da forma proposta no sistema de RAL utilizado nos testes resultou na diminuição da taxa de erro igual (EER) em 17,65%, acarretando um intrínseco aumento de processamento. Para sinais de voz contaminados com ruído, o benefício atingido com o sistema proposto foi verificado para relações sinal ruído (SNRs) maiores que aproximadamente 5 dB. O avanço científico potencial advindo dos resultados alcançados com este trabalho não se limita às invariantes dinâmicas utilizadas, e nem mesmo à caracterização de locutores. A comprovação da possibilidade de utilização de técnicas da Teoria do Caos em sinais de voz permitirá expandir os conceitos utilizados em qualquer sistema que processe digitalmente sinais de voz. O avanço das técnicas de Sistemas Dinâmicos Não-Lineares, como a concepção de invariantes dinâmicas mais representativas e robustas, implicará também no avanço dos sistemas que utilizarem esse novo conceito para tratamento de sinais vocais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é desenvolver um mecanismo para suporte à percepção de eventos no passado. Percepção pode ser conceituada como o conhecimento sobre as atividades do grupo, passadas, presentes e futuras, sobre o próprio grupo e seu status geral. Sem este conhecimento, o trabalho cooperativo coordenado e estruturado torna-se quase impossível. O suporte à percepção pode ser dividido em seis questões (o que, quando, como, onde, quem e quanto), analisadas sob ponto de vista de sistemas assíncronos e síncronos. A questão “quando” analisa o momento em que ocorre uma atividade, o que gera um evento, podendo ser no “passado”, “passado contínuo”, “presente” ou “futuro”. Uma atividade no “passado” é aquela que foi concluída em um momento passado e cujo registro interessa às outras atividades. Apesar de sua importância, o suporte à percepção de eventos no passado é ainda muito limitado nas ferramentas de groupware hoje disponíveis. Como conseqüência, situações como a ausência de um membro do grupo por um certo período de tempo não são tratadas. Como estas situações de ausência são bastante comuns, durante o trabalho em grupo, o seu tratamento é fundamental em um groupware. Desta forma, a ausência de membros do grupo exige a contextualização não apenas daqueles que continuam no trabalho, mas, principalmente, daqueles que retornam ao ambiente cooperativo. Neste trabalho, é apresentado um mecanismo flexível para o suporte à percepção de eventos no passado destinado a cobrir a referida contextualização. Este mecanismo foi construído na forma de um framework, projetado para ser flexível a ponto de poder ser incluído em qualquer ferramenta de groupware, desde que seu autor o queira. Este framework, chamado de BW (Big Watcher), foi organizado em quatro pacotes: três independentes, que trocam informações, descritas no quarto pacote, através somente de classes de fachada. Estas informações são essencialmente eventos, os quais representam as atividades realizadas e já concluídas por algum membro desempenhando um papel dentro do grupo. Estas atividades são registradas pelo groupware junto ao framework, de modo que este groupware possa, através do framework, contextualizar seus membros. Além disso, o groupware também pode especializar várias classes dentro do framework BW, como a descrição dos papéis e a própria descrição dos eventos. Assim, este framework pode ser integrado a qualquer ferramenta de groupware em ambiente assíncrono que necessite de um mecanismo para o suporte à percepção de eventos no passado, para evitar que situações de ausência prejudiquem o andamento dos trabalhos. Finalmente, foi implementado e testado o framwork BW sobre o groupware CUTE/COPSE para validar as idéias desta dissertação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho explora a aplicação de técnicas de injeção de falhas, que simulam falhas transientes de hardware, para validar o mecanismo de detecção e de recuperação de erros, medir os tempos de indisponibilidade do banco de dados após a ocorrência de uma falha que tenha provocado um FUDVK. Adicionalmente, avalia e valida a ferramenta de injeção de falhas FIDe, utilizada nos experimentos, através de um conjunto significativo de testes de injeção de falhas no ambiente do SGBD. A plataforma experimental consiste de um computador Intel Pentium 550 MHz com 128 MB RAM, do sistema operacional Linux Conectiva kernel versão 2.2.13. O sistema alvo das injeções de falhas é o SGBD centralizado InterBase versão 4.0. As aplicações para a carga de trabalho foram escritas em VFULSWV SQL e executadas dentro de uma sessão chamada LVTO. Para a injeção de falhas foram utilizadas três técnicas distintas: 1) o comando NLOO do sistema operacional; 2) UHVHW geral no equipamento; 3) a ferramenta de injeção de falhas FIDe, desenvolvida no grupo de injeção de falhas do PPGC da UFRGS. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho e são necessários para a compreensão deste estudo. Em seguida é apresentada a ferramenta de injeção de falhas Xception e são também analisados alguns experimentos que utilizam ferramentas de injeção de falhas em bancos de dados. Concluída a revisão bibliográfica é apresentada a ferramenta de injeção de falhas – o FIDe, o modelo de falhas adotado, a forma de abordagem, a plataforma de hardware e software, a metodologia e as técnicas utilizadas, a forma de condução dos experimentos realizados e os resultados obtidos com cada uma das técnicas. No total foram realizados 3625 testes de injeções de falhas. Com a primeira técnica foram realizadas 350 execuções, com a segunda técnica foram realizadas 75 execuções e com a terceira técnica 3200 execuções, em 80 testes diferentes. O modelo de falhas proposto para este trabalho refere-se a falhas de crash baseadas em corrupção de memória e registradores, parada de CPU, aborto de transações ou reset geral. Os experimentos foram divididos em três técnicas distintas, visando a maior cobertura possível de erros, e apresentam resultados bastante diferenciados. Os experimentos com o comando NLOO praticamente não afetaram o ambiente do banco de dados. Pequeno número de injeção de falhas com o FIDe afetaram significativamente a dependabilidade do SGBD e os experimentos com a técnica de UHVHW geral foram os que mais comprometeram a dependabilidade do SGBD.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho visa realizar o estudo do comportamento dinâmico de um eixo rotor flexível, modelado segundo a teoria de Euler-Bernoulli e caracterizar as respostas periódicas de sistemas LTI (sistemas lineares invariantes no tempo) e sistemas fracamente não lineares de ordem arbitrária. Para tanto, é utilizada a base dinâmica gerada pela resposta impulso ou solução fundamental. O comportamento dinâmico de um eixo rotor flexível foi discutido em termos da função de Green espacial e calculada de maneira não-modal. Foi realizado um estudo do problema de autovalor para o caso de um um eixo rotor biapoiado. As freqüências são obtidas e os modos escritos em termos da base dinâmica e da velocidade de rotação. As respostas periódicas de sistemas LTI, utilizadas nas aproximações com sistemas fracamente não lineares, são obtidas, independentemente da ordem do sistema, como um operador integral onde o núcleo é a função de Green T-periódica. Esta função é caracterizada em termos das propriedades de continuidade, periodicidade e salto da função de Green T-periódica, e da base dinâmica Simulações foram realizadas para sistemas concentrados, matriciais e escalares, com o objetivo de mostrar a validade da metodologia desenvolvida com as propriedades da função de Green T-periódica. Foi abordado um modelo não-linear para uma centrífuga utilizada na indústria textil [Starzinski, 1977].

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação propõe e discute um mecanismo de realimentação de relevâncias (i. e. “Relevance Feedback”). A técnica de realimentação de relevâncias foi introduzida inicialmente em meados dos anos 60, como uma estratégia para refinamento de consultas para a recuperação de informações. Como uma técnica de refinamento de consultas, foi aplicada inicialmente em sistemas de recuperação de informações textuais. Neste caso, os termos ou expressões consideradas importantes, são utilizados na formulação de uma nova consulta. Ao surgirem os sistemas de recuperação de informação visual baseada em conteúdo (CBVIR), houve a necessidade de serem introduzidos novos elementos associados a esse processo de reformulação de consultas, de tal forma que fossem utilizados não apenas as informações de alto nível, como os termos e expressões. Esses novos elementos passaram a considerar também a subjetividade de percepção humana em relação ao conteúdo visual. Neste trabalho, apresenta-se um processo de extração e representação desse conteúdo, através da utilização de feições (conteúdo) de cor e textura, extraídos de imagens JPEG, uma vez que no processo de compressão de imagens nesse formato, utiliza-se coeficientes da Transformada Discreta do Cosseno (DCT), sendo, portanto esses coeficientes utilizados como elementos que possuem as informações associadas a cor e textura na imagem. Além da DCTé utilizada a Transformação Mandala [YSH 83] no processo de agrupamento de somente 10 coeficientes, com o objetivo de produzir 10 imagens com resoluça menor que a imagem original, mas que representam cada uma, o conteúdo de uma frequência particular da imagem original. A escolha por uma representação como essa,é a garantia de uma redução significativa na quantidade de dados a serem processados. Entretanto, a representação obtida nesse formato para as imagens,é com base em conteúdo global de cor e textura, o que pode produzir resultados insatisfatórios. A introdução de um mecanismo de realimentação de relevâncias, associado à representação utilizada, permite contornar a dificuldade apontada acima, através da obtenção de consultas subsequentes, selecionando os objetos mais relevantes, assim como menos objetos não relevantes, utilizando o conhecimento do usuário de forma interativa no refinamento de consultas para recuperação de informações visuais.