162 resultados para Jabuticaba - Processamento
Resumo:
O volume de escória de aço inoxidável produzida a partir do forno elétrico a arco é elevado, e trazendo este fato para dentro do desenvolvimento sustentável, surge a necessidade de estudar a sua reciclagem e reutilização como instrumento de fundamental importância para o controle e minimização dos problemas ambientais, e deste modo resolver o seu problema de armazenagem. O objetivo deste trabalho foi analisar a mobilidade de cromo presente na composição da escória de aço inoxidável, quando esta é utilizada como matéria-prima para a confecção de material cerâmico, afim de avaliar o risco de contaminação ambiental que estes novos materiais podem causar durante o seu ciclo de vida. Houve a necessidade do estudo, principalmente, porque a escória apresenta cromo em sua composição, e em função disto envolve toda a problemática ambiental que resíduos de cromo provocam. As ferramentas utilizadas para este estudo foram os ensaios de lixiviação e solubilização baseados nas Normas Brasileiras para material granular, NBR 10005 e NBR 10006, respectivamente, e ensaio baseado na Norma Holandesa para material monolítico, NEN 7345, para corpos cerâmicos com percentuais de escória de 10%, 20% e 30% em peso. Os parâmetros utilizados para avaliação do comportamento deste material foram as diferentes granulometrias da amostra e diferentes soluções acidificantes. As diferentes granulometrias foram obtidas através de quebra aleatória ou cortes em local pré-determinado. Este parâmetro de avaliação foi aplicado nos ensaios baseados nas Normas Brasileiras As diferentes soluções acidificantes, ácido nítrico ou ácido acético, foram utilizadas como parâmetro de avaliação no ensaio baseado na Norma Holandesa. A periculosidade do resíduo foi determinada através da análise química dos extratos resultantes dos ensaios e posterior comparação com a concentração máxima dos componentes estabelecida na NBR 10004. Os resultados mostraram que a escória de aço inoxidável é resíduo não-inerte; o cromo presente na escória está na forma trivalente, podendo ser parcialmente oxidado a cromo hexavalente durante o processamento cerâmico; a granulometria, e conseqüente área superficial, é fator determinante para os ensaios de lixiviação e solubilização; e os dois ácidos utilizados apresentam grandes diferenças na extração dos constituintes, o que indica que os resultados são diferentes conforme a norma de lixiviação utilizada para a avaliação da mobilidade dos constituintes do resíduo.
Resumo:
Foram utilizados metais pesados e colimetrias como indicadores biológicos, na avaliação da qualidade do pescado artesanal do Lago Guaíba, localizado junto à região metropolitana de Porto Alegre, capital do Estado do Rio Grande do Sul (Brasil), visando oferecer subsídios para discussão da qualidade de vida dos pescadores artesanais, de suas famílias e dos consumidores deste pescado, bem como fundamentar decisões de políticas públicas. Exemplares de, Leporinus obtusidens (Characiformes, Anostomidae) (Valenciennes, 1847) “Piava” (denominação local) e de Pimelodus maculatus (Siluriformes, Pimelodidae) (Lacèpéde, 1803), “Pintado” (denominação local), foram capturados por pescadores cooperativados, em três pontos do referido Lago a saber: Delta do Jacuí, Canal de Navegação e Lagoa. As amostras foram colhidas entre junho de 2000 a setembro de 2001. Foram avaliadas, quanto a presença de mercúrio, 27 exemplares de Leporinus obtusidens e 27 de Pimelodus maculatus. Os níveis de mercúrio foram determinados por espectrofotometria de absorção atômica e, excetuando-se duas amostras de Piava, os níveis de mercúrio estavam abaixo de 0,5µg/g, limite tolerado pela legislação vigente no Brasil para peixes não predadores. A média encontrada nos Pintados (0,216 mg/kg) é significativamente maior (p<0.001), quando comparada à das Piavas (0,094 mg/kg). Presume-se como hipótese o fato dos Pintados serem peixes de nível trófico elevado e as Piavas, por sua vez, de nível trófico baixo. Também foram avaliadas, quanto a presença de arsênio, 27 amostras de Leporinus obtusidens 27 de Pimelodus maculatus. Os níveis de arsênio foram determinados por espectrofotometria de absorção atômica. Os níveis encontrados estavam abaixo de 1,0 mg/kg, limite tolerado pela legislação vigente no Brasil para peixes e seus produtos. A média encontrada nos Pintados foi de 0,142 mg/kg e nas Piavas de 0,144 mg/kg. Na mesma ocasião, foram avaliadas quanto a presença de coliformes totais, fecais e Escherichia col, 43 amostras de Leporinus obtusidens e 43 de Pimelodus maculatus. Os níveis colimétricos totais e fecais foram determinados segundo Brasil. Ministério da Agricultura (1992), utilizando-se a técnica dos Números Mais Prováveis. A presença de E. coli foi confirmada pelo teste do Indol. A média dos coliformes fecais é significativamente maior nos Pintados quando comparado com as Piavas (p = 0,043). Em relação a E. coli existe diferença significativa entre a Piava e o Pintado (p=0,040). O Pintado é significativamente mais contaminado que a Piava. Das Piavas analisadas 4,65 % estavam acima dos níveis permitidos pela legislação brasileira para coliformes fecais e dos Pintados, 11,62 % das amostras também estavam fora destes limites. Em 23,25 % das amostras de Piava e 44,18% de Pintados foi constatada a presença de E. coli. Não houve diferença nos resultados quanto aos pontos de captação do pescado. Os valores encontrados no presente trabalho indicam a necessidade de maior atenção às boas práticas de higiene desde a captura, manipulação e processamento do pescado, preservando-se o ambiente e as condições sociais, culturais e mesmo artesanais envolvidas.
Resumo:
Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos em diferentes tarefas. Estes sistemas são capazes de reconhecer padrões previamente ensinados em uma imagem complexa. A leitura automática é uma das mais atraentes tarefas nesta área [1], sendo que uma máquina com esta capacidade pode reconhecer objetos que possuam caracteres em sua identificação. Na área de trânsito, a identificação de veículos através da leitura de sua placa de licença vem conquistando cada vez mais espaço. No início dos anos cinqüenta, este conceito era usado para estudar o tempo de duração de viagens entre origem e destino. Os primeiros métodos utilizados eram baseados em observadores que anotavam as placas dos veículos e os tempos correspondentes em um papel ou fita gravada. As placas eram manualmente comparadas mais tarde, e os tempos de viagem calculados [2]. O crescente avanço tecnológico tem aumentado substancialmente a precisão e facilidade desta técnica permitindo sua utilização na identificação de veículos infratores e em situação irregular, e no controle de pedágios e estacionamentos pagos Este trabalho envolve o estudo de diversas técnicas de processamento e análise de imagem culminando no desenvolvimento de um sistema capaz de localizar e reconhecer os caracteres contidos numa placa de licença de um veículo. A imagem é previamente analisada por um algoritmo de procura por variações tonais padronizadas de maneira a restringir a área de análise do algoritmo principal do sistema. Este, por sua vez, binariza a imagem através de um algoritmo adaptativo e busca elementos que possuam dimensões próximas às dimensões esperadas dos caracteres da placa. O sistema busca encontrar uma seqüência de caracteres de dimensões aproximadamente iguais e para isso, varia um valor de limiar no processo de binarização conferindo maior robustez ao algoritmo. Uma vez encontrado um grupo de dígitos que satisfaçam alguns critérios prédefinidos, os caracteres são redimensionados e apresentados a duas redes neurais, uma para as letras e outra para os números.
Resumo:
A análise da iteração solo-estrutura em fundações é um importante campo de pesquisa que ainda tem um grande progresso a ser feito. No presente trabalho foi desenvolvido um programa computacional para a análise da interação solo-estrutura de fundações de concreto armado. Este tema abrange duas áreas da engenharia civil: estruturas e geotecnia. O método dos elementos finitos foi usado no trabalho na seqüência para resolver o problema considerando estado plano de defonnação e comportamento elastoplásti.co dos materiais estudados (solo, concreto e aço). A linguagem de programação MATLAB foi usada em toda esta pesquisa como alternativa ao FORTRAN. O MATLAB foi escolhido uma vez que é uma linguagem de programação que permite facilmente construir uma interfàce de pré e pósprocessamento amigável. Os passos para a solução completa do problema foram os seguintes: Primeiramente um programa foi desenvolvido considerando o comportamento elastoplástico com critérios de plastificação e ruptura específicos para o concreto e solo. Soluções analíticas fechadas foram usadas para checar a precisão do programa. O segundo passo foi a introdução do reforço de aço no concreto por meio de um modelo para armaduras. Logo após, um modelo de fissuras para o concreto 1racionado foi in1roduzido no programa. Na seqüência o programa de pré e pós-processamento foi desenvolvido para gerar a malha de elementos finitos (pré-processamento), distribuição tensões e deformações, mapa de fissuras, etc (pósprocessamento). Finalmente, os parâme1ros constitutivos do solo, concreto e aço foram calibrados e várias situações reais de interação do solo-concreto de fundações de concreto armado foram simuladas. Nesta dissertação são encontrados resultados para as pressões de contato sapata-solo. Diferentes diagramas de tensões de interfàce foram obtidos em função rigidez relativa do elemento estrutural de concreto armado-solo. Na análise mnnérica, rigidez relativa desempenhou uma relevante função no comportamento mecânico do elemento estrutural de concreto armado (sapata) e da base de assentamento (solo), uma vez ruptura em ambos os casos esteve diretamente relacionada a esta grandeza. São encon1rados, em função da rigidez relativa, resultados indicativos dos modos de falha da fundação, excessiva plastificação do solo em fundações com rigidez relativa alta, e a plastificação armaduras, esmagamento do concreto, formação de fissuras, bielas e confinamento concreto para fundações de rigidez relativa baixa. Na análise numérica, obteve-se resultados importantes com relação ao projeto de fundações. Estes resultados foram cOnITontadoscom normas, destacando-se as discordâncias com relação às recomendações da nonna brasileira Projeto e Execução de Fundações" NBR-6122 (1996) para os diagramas de tensões interface sapata-solo usados no dimensionamento de fundações de concreto armado.
Resumo:
A sensação de dor é mediada por diferentes sistemas de transmissão, os quais estão continuamente sendo integrados e modulados por diversos mecanismos neurais, agindo em diferentes períodos de tempo. Para o estudo da dor neuropática, um dos modelos mais empregados é a lesão nervosa periférica, sendo que a maioria desses estudos é realizada em mamíferos. Apesar da ausência de um arranjo laminar, a medula espinal de anfíbios apresenta muitas similaridades anatômicas e funcionais com a dos mamíferos. Por isso, o estudo desses animais pode fornecer subsídios adicionais para compreensão dos mecanismos da transmissão nociceptiva, além de esclarecer os aspectos evolutivos envolvidos na mesma. No presente trabalho foi analisado o padrão de imunorreatividade ao neuropeptídeo Y (NPY), peptídeo relacionado ao gene da calcitonina (CGRP), somatostatina (SOM) e ácido γ-aminobutírico (GABA) em medula espinal lombossacral de rãs Rana catesbeiana em condições basais e após a secção do nervo ciático. Para isso, foram utilizados animais adultos, de ambos os sexos, os quais foram divididos em grupos controle (animais em condições basais) e experimental (animais submetidos à secção do nervo ciático). Para o estudo da imunorreatividade ao NPY, os animais desnervados foram sacrificados 3, 7 e 15 dias após a secção do nervo ciático. Para CGRP, SOM e GABA os intervalos de tempo considerados foram de 3, 5, 8 e 15 dias após a axotomia. A técnica imunoistoquímica utilizada foi a de Sternberger (1979), sendo utilizados anticorpos primários do tipo policlonal nas concentrações de 1:1000 (GABA e neuropeptídeo Y), 1:500 (somatostatina) e 1:100 (CGRP). A imunorreação foi semi-quantificada através de densitometria óptica. A intensidade dos produtos de reação foi comparada entre os lados ipsilateral e contralateral à lesão e com o grupo controle. Os resultados obtidos nos animais controle foram semelhantes aos descritos anteriormente para os anfíbios. A maior intensidade de imunorreação ocorreu na parte dorsal do funículo lateral para todas as substâncias neuroquímicas consideradas. Imunorreatividade ao GABA, NPY e SOM ainda foram observadas ao longo do funículo lateral e no funículo ventral. Na substância cinzenta, o corno dorsal apresentou maior imunorreatividade quando comparado ao ventral, sendo esta uma característica comum entre as substâncias neuroquímicas consideradas no presente estudo. Neurônios bitufted imunorreativos para GABA, NPY e SOM foram detectados na banda mediolateral. No corno ventral, neurônios motores apresentaram imunorreação à SOM, ao CGRP e ao GABA, sendo neste último de fraca intensidade. Após a desnervação periférica não houve variação no padrão de distribuição da imunorreatividade à SOM e ao CGRP. Entretanto, a axotomia causou uma redução significativa na imunorreatividade ao GABA na parte dorsal do funículo lateral no lado ipsilateral à lesão. Essa diminuição foi evidenciada 3 dias após a desnervação, persistindo aos 5, 8 e 15 dias após a secção do nervo ciático. A imunorreatividade ao NPY apresentou inicialmente (3 e 7 dias após a axotomia) um aumento bilateral na intensidade de reação. Porém, 15 dias após a desnervação periférica, houve uma queda na imunorreatividade ao NPY, a qual também foi evidenciada bilateralmente. Esses resultados sugerem o envolvimento das substâncias neuroquímicas abordadas neste estudo no processamento das informações sensoriais de rãs Rana catesbeiana. Todavia, ainda é especulativa a participação das mesmas nos mecanismos de transmissão e codificação da nocicepção nesses animais. Estudos complementares são necessários para o esclarecimento dessas questões. Todavia, pode-se afirmar que o corno dorsal desses animais apresenta uma circuitaria complexa, onde diferentes sistemas de neurotransmissores e/ou neuromoduladores interagem para a modulação dos sinais nociceptivos, semelhante ao que é descrito para os mamíferos.
Resumo:
O alelo mutante termo-condicionalmente letal pso4-1 do gene PRP19, que codifica uma proteína associada ao spliceossoma, permitiu investigar a influência deste gene no processamento de pré-mRNA, reparação do DNA e esporulação. Fenótipos relacionados a genes portadores de introns foram correlacionados à temperatura. Sistemas repórteres para processamento de pré-mRNA e RT-PCR mostraram que eficiência de processamento de mRNA no mutante pso4-1 é inversamente correlacionada com a temperatura de crescimento. Uma mutação pontual, substituindo uma leucina por uma serina foi identificada dentro da região codificadora N-terminal do alelo Pso4-1 e afeta as propriedades bioquímicas de Pso4-1p. Entre 24 clones isolados utilizando o sistema doishíbridos, 7 foram identificados como partes dos genes RAD2, RLF2 e DBR1. RAD2 codifica uma endonuclease indispensável para a via reparação por excisão de nucleotídeos (NER), RLF2 codifica a subunidade maior do fator de montagem da cromatina I, cuja deleção resulta em sinsibilidade à radiação UVC, enquanto que DBR1 codifica uma enzima que atua sobre substratos de RNA na forma lariat, degradando estruturas lariat em introns durante o processamento de mRNA. A caracterização dos fenótipos após tratamentos com mutágenos em linhagens mutantes simples e duplos de rad2∆, rlf2∆ e pso4-1 mostraram sensibilidade aumentada para para mutantes rad2∆/pso4-1 e rlf2∆/pso4-1, sugerindo uma interferência funcional destas proteínas no processo dereparação do DNA em Saccharomyces cerevisiae. O mecanismo exato de reparação de pontes inter-cadeia (ICL) em S. cerevisiae não é ainda totalmente conhecido. Identificando novos fenótipos e isolando proteínas potencialmente capazes de interagir com Pso2p através da técnica do sistema dois-híbridos, foi possível extender a caracterização deste gene específica para reparação de pontes intercadeia. Tratamentos com acetaldeído (ACA), um metabólito natural da via glicolítica, foi mais tóxico a linhagem mutante pso2 em comparação com a linhagem selvagem e também capaz de induzir a expressão da fusão contendo o promotor de PSO2 à lacZ (PSO2-lacZ) por um fator comparável à tratamentos com outros agentes indutores de ICLs, indicando que o metabólito natural ACA pode causar danos do tipo ICL em S. cerevisiae. A utilização do sistema dois-híbridos permitiu isolar partes de proteínas codificadas por nove diferentes genes, entre eles a proteína quinase Pak1p, um supressor de mutações termosensíveis da DNA Polimerase alfa. Pak1p interage com a extremidade C-terminal conservada de Pso2p, uma região da proteína recentemente nomeada β-CASP entre v ortólogos conhecidos do gene PSO2. A integridade do domínio β-CASP é essencial para a reparaçãode DNA proficiente como demonstrado em ensaios de complementação com mutantes pso2 ∆. Comparação da sobrevivência após tratamento com agentes mutagênicos de simples mutantes pso2 ∆ e pak1 ∆ assim com o dulpo mutante pso2 ∆/pak1 ∆ revelaram que o gene PAK1 é necessário para reparação do DNA proficiente como na linhagem selvagem. A interação epistática dos dois alelos mutantes na linhagem duplo mutante sugere que Pak1p atua na mesma via de reparação a qual PSO2 pertence e que PAK1 constitui um novo locus envolvido na reparação do DNA em S. cerevisiae.
Resumo:
Este trabalho apresenta um método para detectar falhas no funcionamento de máquinas rotativas baseado em alterações no padrão de vibração do sistema e no diagnóstico da condição de operação, por Lógica Fuzzy. As modificações ocorridas são analisadas e servem como parâmetros para predizer falhas incipientes bem como a evolução destas na condição de operação, possibilitando tarefas de manutenção preditiva. Utiliza-se uma estrutura mecânica denominada de Sistema Rotativo (Figura 1), apropriada para as simulações das falhas. Faz-se a aquisição de dados de vibração da máquina usando-se um acelerômetro em chip biaxial de baixa potência. As saídas são lidas diretamente por um contador microprocessador não requerendo um conversor A/D. Um sistema de desenvolvimento para processamento digital de sinais, baseado no microprocessador TMS320C25, o Psi25, é empregado na aquisição dos sinais de vibração (*.dat), do Sistema Rotativo. Os arquivos *.dat são processados através da ferramenta matemática computacional Matlab 5 e do programa SPTOOL. Estabelece-se o padrão de vibração, denominado assinatura espectral do Sistema Rotativo (Figura 2) Os dados são analisados pelo sistema especialista Fuzzy, devidamente calibrado para o processo em questão. São considerados, como parâmetros para a diferenciação e tomada de decisão no diagnóstico do estado de funcionamento pelo sistema especialista, a freqüência de rotação do eixo-volante e as amplitudes de vibração inerentes a cada situação de avaria. As falhas inseridas neste trabalho são desbalanceamentos no eixovolante (Figura 1), através da inserção de elementos desbalanceadores. A relação de massa entre o volante e o menor elemento desbalanceador é de 1:10000. Tomando-se como alusão o conhecimento de especialistas no que se refere a situações normais de funcionamento e conseqüências danosas, utilizam-se elementos de diferentes massas para inserir falhas e diagnosticar o estado de funcionamento pelo sistema fuzzy, que apresenta o diagnóstico de formas qualitativa: normal; falha incipiente; manutenção e perigo e quantitativa, sendo desta maneira possível a detecção e o acompanhamento da evolução da falha.
Resumo:
Todos os processos industriais são forçados a cumprir especificações de produto através da inserção de rigorosos parâmetros de controle, principaJmente devido à globalização do mercado. A tendência mundial indica que cada vez mais a cor passa a ser um parâmetro primordial para a colocação do produto no mercado. Neste contexto, uma das dificuldades da indústria mineral é a inexistência de equipamentos adequados para a medição da cor de polpas de minério durante o processamento mineral. Isto se verifica principalmente para os minerais industriais que são caracterizados, na maioria das vezes, em termos de índices de alvura e amarelamento. Este traballio tem como objetivo principal avaliar o uso do equipamento Colorcell, utilizado e desenvolvido pela empresa Renner-HerrmaIlll para a produção de tintas, na indústria de processamento mineral. Os ensaios foram realizados com um equipamento similar ao original. Para se compreender as variáveis operacionais do equipamento utilizou-se um produto à base de carbonato de cálcio natural. Após a delimitação das variáveis e definição de uma metodologia de trabalho, foram caracterizados outros minerais utilizados nas indústrias de tintas, papel e plásticos. O sistema Colorcell também foi utilizado para o controle do processamento de caulim de uma empresa da região sul do Brasil. Ensaios em laboratório permitiram o ajuste de um modelo cinético para a etapa de alvejamento da empresa. A tecnologia Colorcell indica que além dos resultados benéficos ao controle de processo é possível correlacionar a caracterização colorimétrica em polpa com o método tradicional de medição de cor.
Resumo:
O presente trabalho foi desenvolvido com o objetivo de fornecer uma avaliação do grau de satisfação do cliente bancário, pessoa-física, com a utilização das tecnologias da informação e do auto-atendimento na realização dos serviços bancários, na cidade de Lajeado. Foram consideradas como tecnologias da informação os terminais de auto -atendimento, Automated Teller Machines (ATMs) para saques e depósitos, cash-dispenser, terminais de depósitos, terminais de extratos e saldos e dispensadores de cheques, localizados em agências, salas de auto-atendimento, quiosques em locais públicos e em pontos de atendimento. O método seguido foi o proposto por ROSSI & SLONGO (1998), com duas etapas distintas, uma exploratória e a outra descritiva. Os indicadores de satisfação foram selecionados através de levantamento de dados secundários e entrevistas de profundidade. A pesquisa foi realizada nos meses de junho e julho de 2001, nas salas de auto-serviço do Banco do Brasil. Os clientes entrevistados deveriam ter realizado alguma transação nos terminais de auto-atendimento. Para as análises da pesquisa, foram considerados fatores sobre pontos de auto-atendimento, processamento de transações, comunicação com clientes, segurança e erros relacionados a computadores. Concluiu-se que o Banco do Brasil está muito bem posicionado quanto à satisfação de seus clientes no que se refere ao autoatendimento. Todos com uma satisfação próxima ao nível máximo. Através de técnicas estatísticas, identificou-se que o indicador que trata da “ rapidez e facilidade para retirar dinheiro” recebeu o maior índice de satisfação, assim como o bloco comunicação com clientes; e o indicador “emissão dos comprovantes das transações realizadas ” recebeu o maior índice de importância, assim como o bloco comunicação com os clientes. Assim, analisou-se, definiu-se e realizou-se um modelo para avaliação da satisfação do cliente com as tecnologias da informação nos serviços bancários.
Resumo:
A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.
Resumo:
A Internet, apesar de sua grande popularização, é ainda uma incógnita sob o ponto de vista de seu alcance comercial e de suas implicações no estudo do Comportamento do Consumidor. Numerosos estudos estão sendo desenvolvidos, porém dentro de um contexto teórico clássico de Marketing, isto é, posicionando-a como um instrumento “midiático”. Diferentemente, este trabalho procura vê-la como um canal de marketing, analisando-a através da resposta de 726 usuários da Companhia de Processamento de Dados do Rio Grande do Sul – PROCERGS, provedor de acesso à Internet do Rio Grande do Sul. Foi possível identificar sete dimensões características do processo de compra na rede: 1) comodidade, 2) atendimento, 3) conteúdo informacional do site, 4) apresentação e interface da home page, 5) segurança, 6) taxa e tempo de entrega e 7) oferta de produtos. O estudo mostra que a oferta de produtos e a comodidade são os fatores que influenciam a decisão de compra, enquanto que a apresentação/interface da home page, a segurança e o atendimento são os fatores mais preponderantes na decisão de NÃO compra. Também são apresentadas as diferenças percebidas pelos usuários entre a compra realizada na Internet e a efetuada nos canais tradicionais. A avaliação da Internet como canal de compra é finalizada com a identificação dos atributos determinantes da compra pela rede.
Resumo:
Nesta dissertação, apresenta-se um estudo de caso, focando-se duas áreas distintas em empresa industrial do ramo automobilístico, situada na região metropolitana de Curitiba, no estado do Paraná e localizada na região sul-brasileira. Neste estudo, buscou-se identificar os fatores dificultadores e os facilitadores presentes na implementação e manutenção do modelo de trabalho por processos com Equipes Autogerenciadas (EAGs), a partir da percepção dos seus membros. Para efeito de ambientação deste tema, na fase exploratória da pesquisa também foram envolvidos os coordenadores e gerentes das áreas da empresa objeto do estudo. A investigação é de natureza qualitativa, valendo-se também do auxílio dos recursos de processamento estatístico de dados. Inicialmente se conduziu uma pesquisa exploratória seguida de uma pesquisa descritiva, esta, estruturada a partir dos dados obtidos na fase exploratória e do referencial teórico utilizado. O estudo teve o tema como unidade de registro, o que possibilitou a comparação dos resultados encontrados, à luz de alguns pressupostos teóricos. Os resultados da pesquisa apontam para a predominância de fatores dificultadores presentes nas áreas pesquisadas e referentes ao modelo de trabalho com EAGs, devendo-se estar atento à expectativa de incremento do empoderamento das mesmas, bem como do devido reconhecimento, por parte da empresa, em relação às responsabilidades e habilidades adicionais adquiridas pelos membros das mesmas EAGs. Sugere-se que o treinamento em habilidades comportamentais, bem como a melhoria do atual sistema de divulgação das informações também sejam revisados e desenvolvidos pela Empresa junto às áreas estudadas.
Resumo:
Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos a realizar diferentes tarefas. Estes sistemas são capazes de reconhecer padrões em imagens complexas. Técnicas de visão computacional têm encontrado crescente aplicação em estudos e sistemas de controle e monitoração de tráfego de automóveis. Uma das áreas de pesquisa que tem sido objeto de estudo por diferentes grupos é a leitura automática de placas de matrículas como forma de detectar transgressores, encontrar carros roubados ou efetuar estudos de origem/destino [BAR99]. Com o constante crescimento do volume de tráfego de automóvel e a limitada capacidade dos sensores convencionais, especialistas da área recorrem a técnicas de identificação automática de veículos para obter dados relativos ao escoamento de tráfego. A identificação automática de veículos tem tido essencialmente duas abordagens distintas: a utilização de transponders e a utilização de técnicas de visão computacional [INI85] . Estas são essencialmente úteis em casos em que não é viável obrigar os motoristas a instalar transponders em seus automóveis. No entanto, essas técnicas são mais sensíveis às condições atmosféricas e de iluminação tais como nevoeiros, chuva intensa, luz noturna, reflexos em superfícies, etc. Este trabalho apresenta um estudo de diversas técnicas de processamento de imagem objetivando o aperfeiçoamento de um sistema de identificação automática de placas de veículos. Este aperfeiçoamento está relacionado com a diminuição do tempo de execução necessário à localização e reconhecimento dos caracteres contidos nas placas dos veículos bem como a melhorar a taxa de sucesso no seu reconhecimento. A primeira versão do sistema de identificação da placas de veículos descrito em [SOU2000], desenvolvido no CPG-EE da UFRGS, denominado SIAV 1.0, localiza e extrai 91,3% das placas corretamente mas apresenta uma taxa de reconhecimento das placas de 37,3%, assim como um tempo de processamento não satisfatório. Neste trabalho, cujo sistema desenvolvido é denominado SIAV 2.0, a imagem é previamente processada através da aplicação de técnicas de realce da imagem. O principal objetivo das técnicas de realce é processar a imagem de modo que o resultado seja mais apropriado para uma aplicação específica do que a imagem original [GON93]. O sistema busca melhorar a qualidade da imagem eliminando ou suavizando sombras e reflexos presentes na cena em virtude da iluminação não controlada. Visando um menor tempo de execução durante o tratamento e análise da imagem um estudo estatístico baseado na distribuição gaussiana foi realizado de maneira a restringir a área de análise a ser processada. O SIAV possui duas redes neurais como ferramentas de reconhecimento de caracteres. A partir da análise dos diferentes modelos de redes neurais empregados na atualidade, foi desenvolvida uma nova arquitetura de rede a ser utilizada pelo SIAV 2.0 que oferece uma taxa de reconhecimento superior a rede neural usada no SIAV 1.0. Visando um melhor tempo de execução, a implementação em hardware dedicado para este modelo é abordado. Os testes foram realizados com três bancos de imagens obtidas por câmeras diferentes, inclusive por dispositivo "pardal" comercial. Estes testes foram realizados para verificar a efetividade dos algoritmos aperfeiçoados.
Resumo:
Apresentamos mecanismos de formação e de degradação térmica de filmes fi- nos (espessura da ordem de 10 nm) de diferentes dielétricos sobre substrato de silício monocristalino. Tendo em vista a aplicação dessas estruturas em MOSFETs (transistores de efeito de campo metal-óxido-semicondutor), estudamos o consagrado óxido de silício (SiO2), os atuais substitutos oxinitretos de silício (SiOxNy) e o possível substituto futuro óxido de alumínio (Al2O3). Nossos resultados experimentais baseiam-se em técnicas preparativas de substituição isotópica e de caracterização física com feixes de íons (análise com reações nucleares) ou raios- X (espectroscopia de fotoelétrons). Observamos que: (a) átomos de silício não apresentam difusão de longo alcance (além de ~ 2 nm) durante o crescimento de SiO2 por oxidação térmica do silício em O2; (b) nitretação hipertérmica é capaz de produzir filmes finos de oxinitreto de silício com até dez vezes mais nitrogênio que o resultante do processamento térmico usual, sendo que esse nitrogênio tende a se acumular na interface SiOxNy/Si; e (c) átomos de oxigênio, alumínio e silício migram e promovem reações químicas durante o recozimento térmico de estruturas Al2O3/SiO2/Si em presença de O2. Desenvolvemos um modelo de difusão-reação que poderá vir a permitir o estabelecimento de condições ótimas de processamento térmico para filmes finos de Al2O3 sobre silício a serem empregados na fabricação de MOSFETs.
Resumo:
Em função da importância do processo de jigagem no beneficiamento de carvão no Brasil, onde 95% da produção bruta, ROM, é beneficiada em jigues para a obtenção de carvão energético ou carvão pré-lavado, e da inexistência de um trabalho sistemático de caracterização deste processo, esta dissertação apresenta um estudo detalhado do desempenho de jigues no beneficiamento de carvão nacional, através do levantamento dos critérios de avaliação de performance dependentes e independentes derivados das curvas de partição e análises densimétricas dos diversos produtos. São desenvolvidos "softwares" para o processamento dos diversos dados levantados "in situ", com aplicação nas áreas de cálculo de balanços de massas e metalúrgico, processamento de análises densimétricas, cálculo de coeficientes de partição, modelamento matemático de curvas de partição e cálculo dos critérios de avaliação de performance. Conclue-se que, de um modo geral, o processo de jigagem é mal empregado no Brasil, conduzindo obtenção de produtos de baixa recuperação. Isto ocorre basicamente em função das características peculiares do carvão nacional e do fato que, no Brasil, utiliza-se jigues de fabricação estrangeira, dimensionados para outros tipos de carvões de melhor qualidade. Este trabalho pretende alertar aos profissionais da área e oferece algumas sugestões com o objetivo de melhorar a baixa eficiência do beneficiamento de carvão observada em diversos lavadores.