162 resultados para Jabuticaba - Processamento


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Compósitos de polipropileno (PP) com cargas inorgânicas tem sido cada vez mais aplicados na obtenção de peças automotivas, eletrodomésticos e outros. O crescimento da aplicação destes materiais foi possível com o advento da tecnologia de adesão que consiste no uso de um agente que promove a interação físico-química na interface carga/matriz. Neste trabalho, o viniltrietoxisilano (VTES) foi empregado como agente de adesão em compósitos de PP com fibras de vidro curtas. A reação do VTES com PP por via radicalar foi estudada em câmara de mistura e por extrusão reativa, comparando-se os dois processos. O VTES reage com o PP na ausência de iniciador de reação radicalar em processos com alto cisalhamento. A reação modifica o comportamento reológico do polímero, sem afetar significativamente as propriedades térmicas e mecânicas. O teor de VTES tem influência sobre o peso molecular de produtos sem peróxido. Compósitos de PP contendo 20% de fibras de vidro foram obtidos por extrusão reativa e câmara de mistura, analisando-se o efeito de VTES sobre as propriedades mecânicas, reológicas e a morfologia dos produtos. Um estudo das condições de processamento por extrusão reativa é apresentado, comparando dois métodos a) pré-impregnação do polímero com os reagentes e b) adição de uma solução dos reagentes num estágio avançado da extrusora. A quebra diferenciada das fibras durante o processamento por extrusão pode ser explicada através comportamento reológico observado pelas medidas de torque na câmara de mistura O VTES age no sentido de promover a adesão na interface matriz / fibra, o que pode ser verificado pela morfologia do material. A degradação do material é influenciada pela exposição ao ar, pelo tempo de residência e pela temperatura na extrusão. O módulo dos compósitos contendo VTES é dependente do comprimento das fibras. A tensão de ruptura aumenta em presença de VTES.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho implementa um método computacional semi-automático para obter medidas de estruturas cardíacas de fetos humanos através do processamento de imagens de ultra-som. Essas imagens são utilizadas na avaliação cardíaca pré-natal, permitindo que os médicos diagnostiquem problemas antes mesmo do nascimento. A dissertação é parte de um projeto desenvolvido no Instituto de Informática da Universidade Federal do Rio Grande do Sul, denominado SEGIME (Segmentação de Imagens Médicas). Neste projeto, está sendo desenvolvida uma ferramenta computacional para auxiliar na análise de exames ecocardiográficos fetais com o apoio da equipe de Cardiologia Fetal do Instituto de Cardiologia do Rio Grande do Sul. O processamento de cada imagem é realizado por etapas, divididas em: aquisição, pré-processamento, segmentação e obtenção das medidas. A aquisição das imagens é realizada por especialistas do Instituto de Cardiologia. No pré-processamento, é extraída a região de interesse para a obtenção das medidas e a imagem é filtrada para a extração do ruído característico das imagens de ultra-som. A segmentação das imagens é realizada através de redes neurais artificiais, sendo que a rede neural utilizada é conhecida como Mapa Auto-organizável de Kohonen. Ao final do processo de segmentação, a imagem está pronta para a obtenção das medidas. A técnica desenvolvida nesta dissertação para obtenção das medidas foi baseada nos exames realizados pelos especialistas na extração manual de medidas. Essa técnica consiste na análise da linha referente à estrutura de interesse onde serão detectadas as bordas. Para o início das medidas, é necessário que o usuário indique o ponto inicial sobre uma borda da estrutura. Depois de encontradas as bordas, através da análise da linha, a medida é definida pela soma dos pixels entre os dois pontos de bordas. Foram realizados testes com quatro estruturas cardíacas fetais: a espessura do septo interventricular, o diâmetro do ventrículo esquerdo, a excursão do septum primum para o interior do átrio esquerdo e o diâmetro do átrio esquerdo. Os resultados obtidos pelo método foram avaliados através da comparação com resultados de referência obtidos por especialistas. Nessa avaliação observou-se que a variação foi regular e dentro dos limites aceitáveis, normalmente obtida como variação entre especialistas. Desta forma, um médico não especializado em cardiologia fetal poderia usar esses resultados em um diagnóstico preliminar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A cardiomioplastia (CDM) tem sido proposta com uma alternativa de tratamento cirúrgico para pacientes em estado avançado de cardiomiopatia dilatada e isquêmica. Os resultados clínicos e experimentais demonstram que este procedimento atenua o processo de remodelamento ventricular, através da compressão dinâmica ou passiva do miocárdio pelo grande dorsal (GD). Além disso, estudos observaram formação de vasos colaterais do GD para o coração após a CDM. O infarto do miocárdio (IM) induz disfunção e remodelamento ventricular e tem sido muito utilizado na literatura como modelo experimental de isquemia miocárdica. A aplicação de fatores angiogênicos diretamente no miocárdio isquêmico tem mostrado resultados positivos na estimulação da formação de colaterais. O objetivo do presente estudo foi avaliar os efeitos da CDM associada ao tratamento com VEGF165 na função ventricular e no desenvolvimento de fluxo colateral extramiocárdico em ratos infartados. Foram utilizados ratos machos Wistar (n=57, 220-250g) divididos em grupos infartados e controles. As alterações temporais induzidas pelo IM (ligadura da artéria coronária esquerda) foram avaliadas aos 14 (IM-14) e aos 56 (IM-56) dias pós IM sendo comparadas com seus respectivos controles (C-14 e C-56). Animais controles (C-CDM) e infartados (IM-CDM) foram submetidos à CDM passiva (sem estimulação do GD) após 14 dias de IM e avaliados aos 56 dias. Ratos controles foram submetidos à cirurgia fictícia de IM e de CDM (S-IMCDM) e ratos infartados à cirurgia fictícia de CDM (IM-SCDM) a fim de verificar eventuais alterações induzidas pelos procedimentos cirúrgicos. Um grupo de ratos infartados recebeu a administração de uma dose de 25µg de VEGF165 na artéria principal do GD imediatamente antes da CDM (14 dias de IM) e foi avaliados aos 56 dias (IMCDM-VEGF). Ao final do protocolo os animais foram anestesiados (pentobarbital sódico, 40mg/Kg) e a artéria carótida direita foi canulada para registro da PA. Logo após, esta cânula foi inserida no ventrículo esquerdo (VE) para registro da pressão ventricular. O registro e processamento dos sinais de pressão foram realizados utilizando-se um sistema de aquisição de sinais (CODAS, 1 Khz). O débito cardíaco (DC) e os fluxos regionais (coração e rins) foram avaliados através da infusão de 300 000 microesferas azuis no ventrículo esquerdo. Após a infusão de 50 000 microesferas amarelas na artéria principal do GD o fluxo colateral extramiocárdico do GD para o coração (FCO GD→coração) foi quantificado através da divisão do número de microesferas amarelas no coração pelo número de microesferas amarelas no GD. Após a oclusão da artéria do GD foram infundidas 300 000 microesferas azuis no VE e o fluxo colateral extramiocárdico do coração para o GD (FCO coração→GD) foi avaliado pela divisão do número de microesferas azuis no GD pelo número de microesferas azuis no coração. O IM induziu hipotensão e aumento da pressão diastólica final (PDF) nos grupos IM-14 (84±6 e 6,88±2,6 mmHg) e IM-56 (98±3 e 15,4±2 mmHg) em relação aos seus respectivos controles (C-14: 102±4 e –3,2±0,5; C-56: 114±3 e 0,5±1,7 mmHg). O débito cárdiaco (DC) foi menor no grupo IM-56 (49,5±9 ml/min) em relação ao grupo IM-14 (72±9 ml/min). A máxima velocidade de relaxamento do VE (-dP/dt) estava reduzida nos grupos IM-14 (-2416±415 vs -4141±309 mmHg/seg nos C-14) e IM-56 (-3062±254 vs -4191±354 mmHg/seg nos C-56) e a de contração do VE (+dP/dt) somente no grupo IM-56 (4191±354 vs 5420±355 mmHg/seg nos C-56). O IM não alterou o fluxo e a resistência vascular coronariana, no entanto, o fluxo renal estava reduzido e a resistência renal aumentada no grupo IM-56 quando comparados ao grupo C-56. Os animais com 56 dias de IM apresentaram aumento de massa ventricular (pv) e da razão peso ventricular/peso corporal (pv/pc) em relação aos controles (1,3±0,04 vs 0,98±0,04 23 g e 3,37±0,08 vs 2,54±0,09 mg/g nos C-56). O tamanho do infarto foi menor no grupo IM-14 (35±3 % do VE) em relação ao grupo IM-56 (44±2 % do VE). Os grupos sham não apresentaram alterações nos parâmetros avaliados em relação aos seus controles. Os ratos infartados submetidos à CDM não apresentaram hipotensão (105±2 mmHg), nem aumento da PDF (4,8±1,7 mmHg) conforme observado no grupo IM-56. O FC, o DC, a RVP e os fluxos e a resistência vascular coronariana foram semelhantes entre os grupos C-56, IM-56, C-CDM e IM-CDM. A +dP/dt e a –dP/dt mostraram-se reduzidas nos grupos C-CDM e IM-CDM em relação ao grupo C-56. O fluxo e a resistência vascular renal estavam normalizadas nos ratos IM-CDM. O pv (1,11±0,04g) e a razão pv/pc (2,94±0,09 mg/g) apresentaram-se similares aos valores do grupo C-56 e o tamanho do IM foi semelhante entre os grupo IM-56 e IM-CDM (44±2 vs 45±3 % do VE). O grupo IMCDM-VEGF apresentou normalização dos parâmetros hemodinâmicos e morfométricos de forma semelhante aos do grupo IM-CDM quando comparados ao grupo IM-56. A resistência coronariana mostrou-se reduzida nos animais IMCDM-VEGF (22,07±2,01 mmHg/ml/min/g) quando comparada ao grupo C-CDM (37,81±4 mmHg/ml/min/g), apesar do fluxo coronariano ter sido similar entre os grupos submetidos à CDM. O FCOcoração→GD ocorreu predominantemente nos animais dos grupo C-CDM e IMCDM-VEGF (70% e 83,3% vs 28,6% no IM-CDM) enquanto que o FCO GD-coração foi observado em todos os animais dos grupos IM-CDM e IMCDM-VEGF (20% no C-CDM). A administração de VEGF165 aumentou o FCO GD→coração em valores absolutos e normalizados por grama (24,85±10,3% e 62,29±23,27%/g) em relação aos grupos C-CDM (0,88±0,89% e 1,42±1,42%/g) e IM-CDM (4,43±1,45 % e 7,66±2,34 %/g). O FCO GD→coração normalizado foi maior nos animais IM-CDM em relação aos C-CDM. O grupo IMCDM-VEGF (4,47±1,46 %/g) apresentou maior FCO coração→GD normalizado em comparação ao grupo MI-CDM (2,43±1,44 %/g). O tamanho do infarto foi menor nos animais do grupo IMCDM-VEGF (36±3 % do VE) em relação aos grupos IM-56 e IM-CDM. Correlações positivas foram obtidas entre o FCO GD→coração e o volume sistólico e (r=0,7) e o fluxo coronariano (r=0,7), e entre a PDF e a razão pv/pc (r=0,8) e o tamanho do IM (r=0,6). Além disso, correlações inversas foram observadas entre o tamanho do infarto e o volume sistólico (r=0,8) e o FCO GD→coração (r=0,7). Estes resultados permitem concluir que a CDM passiva preveniu a disfunção e o remodelamento do VE em ratos infartados. A aplicação de VEGF165 induziu diminuição do tamanho do IM que pode estar associado ao aumento do fluxo colateral extramiocárdico do GD→coração observado neste grupo tratado com VEGF. Estes achados sugerem que o uso de fatores angiogênicos, como o VEGF165, pode induzir melhora da perfusão das regiões isquêmicas do coração infartado, limitando a perda tecidual. Este efeito associado ao da compressão passiva do VE infartado pelo GD pós CDM, pode prevenir as disfunções decorrentes de isquemias miocárdicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na era de sistemas embarcados complexos, a interface direta de dispositivos e sistemas integrados para o mundo real demanda o uso de sensores e seus circuitos analógicos de suporte. Desde que a maioria das características físicas de um sensor requer algum tipo de calibração, este trabalho compara e discute quatro técnicas digitais de calibração adaptadas para aplicação em sistemas embarcados. Para fins de comparação, estes métodos de calibração foram implementados em Matlab5.3, e em um DSP (Digital Signal Processor) . Através das medidas realizadas durante a operação em regime do DSP, pode-se determinar parâmetros importantes de projeto, como potência dissipada e tempo de processamento. Outros critérios de comparação, como área consumida, tempo de processamento, facilidade de automação e taxa de crescimento do custo área e do custo velocidade com o aumento de resolução também foram analisados. Os resultados das implementações são apresentados e discutidos com o objetivo de descobrir qual o melhor método de calibração para aplicações em sistemas embarcados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O principal objetivo deste trabalho é apresentar um método e métricas para a avaliação do serviço Internet mais amplamente utilizado: a World Wide Web. As características básicas e funcionamento do serviço, bem como algumas ferramentas de avaliação de desempenho, serão descritas. Estes capítulos servirão de base para os demais, onde serão apresentados o método para avaliação do serviço web e métricas usadas para análise de desempenho, disponibilidade, confiabilidade, facilidades de administração e recursos. Por fim, o método e métricas serão aplicados na Procempa – Companhia de Processamento de Dados do Município de Porto Alegre, onde será possível verificá-los na prática. Além disto, dados importantes sobre a infra-estrutura web da Procempa serão fornecidos, os quais permitem uma análise do ambiente web atual e futuro da empresa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tarefa de estimação de movimento, utilizada na compressão de vídeo digital, é normalmente realizada em hardware por processador dedicado, uma vez que demanda expressiva capacidade computacional. Este trabalho propõe e desenvolve uma arquitetura de hardware para realizar o cálculo dos vetores de movimento no contexto de compressão de vídeo digital. Essa arquitetura para estimação de movimento é composta pelos blocos: interface de entrada e saída (E/S), matriz de processamento com 64 elementos de processamento, unidade de comparação e unidade de controle. A arquitetura foi descrita em linguagem VHDL de maneira que o número de bits utilizados para representação da luminância dos pontos é configurável. A partir desta descrição, foi gerado um protótipo para dados representados em 4 bits utilizando um kit de desenvolvimento baseado no dispositivo FPGA XC2S150 da Xilinx. Para validação do algoritmo e da arquitetura implementada, além da simulação, foi desenvolvido um software para plataforma PC capaz de exercitar as funcionalidades do protótipo. O PC é utilizado como dispositivo controlador de E/S para esta validação, na qual uma implementação do algoritmo em software e outra em linguagem de descrição de hardware são comparadas. A máxima freqüência de trabalho do protótipo, estimada por simulação da arquitetura mapeada no FPGA XC2S150, é de 33 MHz. A esta freqüência o núcleo da arquitetura paralela de 64 elementos de processamento realiza cerca de 2,1 GOps (bilhões de operações inteiras por segundo). Esta arquitetura de hardware calcula os vetores de movimento para vídeo no formato 640x480 pontos à taxa de 107,32 quadros por segundo, ou um quadro a cada 9,3 ms. A arquitetura implementada para luminânica em 4 bits ocupa 16 pinos de E/S, 71,1% dos blocos lógicos do FPGA e 83,3% dos blocos de memória disponíveis no dispositivo XC2S150.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A paralelização de métodos de resolução de sistemas de equações lineares e não lineares é uma atividade que tem concentrado várias pesquisas nos últimos anos. Isto porque, os sistemas de equações estão presentes em diversos problemas da computação cientí ca, especialmente naqueles que empregam equações diferenciais parciais (EDPs) que modelam fenômenos físicos, e que precisam ser discretizadas para serem tratadas computacionalmente. O processo de discretização resulta em sistemas de equações que necessitam ser resolvidos a cada passo de tempo. Em geral, esses sistemas têm como características a esparsidade e um grande número de incógnitas. Devido ao porte desses sistemas é necessária uma grande quantidade de memória e velocidade de processamento, sendo adequado o uso de computação de alto desempenho na obtenção da solução dos mesmos. Dentro desse contexto, é feito neste trabalho um estudo sobre o uso de métodos de decomposição de domínio na resolução de sistemas de equações em paralelo. Esses métodos baseiam-se no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções de cada subdomínio. Uma vez que diferentes subdomínios podem ser tratados independentemente, tais métodos são atrativos para ambientes paralelos. Mais especi camente, foram implementados e analisados neste trabalho, três diferentes métodos de decomposição de domínio. Dois desses com sobreposição entre os subdomínios, e um sem sobreposição. Dentre os métodos com sobreposição foram estudados os métodos aditivo de Schwarz e multiplicativo de Schwarz. Já dentre os métodos sem sobreposição optou-se pelo método do complemento de Schur. Todas as implementações foram desenvolvidas para serem executadas em clusters de PCs multiprocessados e estão incorporadas ao modelo HIDRA, que é um modelo computacional paralelo multifísica desenvolvido no Grupo de Matemática da Computação e Processamento de Alto Desempenho (GMCPAD) para a simulação do escoamento e do transporte de substâncias em corpos de águas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os Sistemas de Recuperação de Informações (SRI) computadorizados são sistemas capazes de armazenar, recuperar e manter informações, visando minimizar o esforço humano na realização de tais atividades. A classificação de textos é um subdomínio dos sistemas de recuperação de informações que tem como objetivo classificar um texto em uma ou mais categorias existentes. Pode ser utilizada na classificação de mensagens, notícias e documentos, na filtragem de informações, na sumarização de textos, além de auxiliar profissionais na execução destas tarefas. A filtragem automatizada das mensagens de correio eletrônico é uma forma de organizar o trabalho do usuário. O volume de informações divulgadas através deste serviço torna fundamental um sistema de filtros para melhor uso do serviço. Sieve é uma proposta para padrão de linguagens de filtro de mensagens. O Direto é um software de correio, agenda e catálogo corporativos que visa atender todo Governo do Estado do Rio Grande do Sul. Foi desenvolvido na PROCERGS, Companhia de Processamento de Dados do Estado do Rio Grande do Sul, utilizando a linguagem Java e utiliza os serviços de IMAP, SMTP, LDAP e SGBD. Está disponível com licença de software livre. O objetivo deste trabalho é aplicar técnicas de filtragem no Direto. O trabalho apresenta uma solução para filtrar as mensagens de correio do Direto utilizando Sieve. Também é especificado um serviço de canais de informação que visa divulgar informações de forma eficiente no Estado. Este serviço possui vários canais, cada um destinado a divulgar informações de determinado domínio. O usuário assina os canais que desejar e pode criar filtros para melhor refinamento das informações que deseja receber. Os filtros utilizam técnicas de classificação de textos no processo de filtragem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A confiabilidade de sistemas de processamento digital de sinais é, entre tantos fatores, diretamente proporcional à confiabilidade dos conversores analógico-digitais neles presentes para serem usados como interface com o mundo real. Este trabalho propõe um método novo de teste de conversores analógico-digitais baseado em ruído. O método proposto possibilita a detecção de falhas nos conversores em teste. Além disto, a técnica proposta é capaz de estimar simultaneamente características estáticas e dinâmicas tornando-se, portanto, inovador em relação aos demais métodos presentes na literatura. A proposta, a simulação e a implementação do método são apresentadas ao longo desta dissertação. A comparação dos resultados obtidos com um método padrão de teste de ADCs, o método do histograma, comprovam a eficácia do método.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A alta resistência combinada à baixa densidade e resistência à corrosão do titânio e suas ligas apresentam-se de grande importância para indústrias química, automobilística, aeronáutica e biomédica. Todavia, a produção e processamento do titânio possui custos elevados. Consequentemente, muitos esforços tem sido despendidos para reduzir o custo de peças de titânio. Uma alternativa de redução de custo foi produzir peças pela técnica de metalurgia do pó, sem a necessidade de operações secundárias. Atualmente os métodos usados para produzir pós de titânio são os processos de eletrodo rotatório à plasma e hidretação-dehidretação. O presente trabalho tem como objetivo produzir e caracterizar os pós de titânio comercialmente puro, obtidos a partir de sucata de processos de conformação, usando o processo de hidretação-dehidretação (HDH). Sua processabilidade foi testada através das técnicas de moldagem por injeção de pós e metalurgia do pó convencional. A morfologia, microestrutura e composição dos pós foram caracterizados pelas análises de difração de raios-x, microscopia eletrônica de varredura e analisador elementar de hidrogênio. Os resultados mostraram que o processo HDH combinado com a moagem mecânica é capaz de produzir partículas de pó de titânio com tamanho médio na faixa de 7-45 mm, que podem ser usadas nas técnicas de moldagem por injeção de pós e metalurgia do pó convencional, respectivamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

o exame para o diagnóstico de doenças da laringe é usualmente realizado através da videolaringoscopia e videoestroboscopia. A maioria das doenças na laringe provoca mudanças na voz do paciente. Diversos índices têm sido propostos para avaliar quantitativamente a qualidade da voz. Também foram propostos vários métodos para classificação automática de patologias da laringe utilizando apenas a voz do paciente. Este trabalho apresenta a aplicação da Transformada Wavelet Packet e do algoritmo Best Basis [COI92] para a classificação automática de vozes em patológicas ou normais. Os resultados obtidos mostraram que é possível classificar a voz utilizando esta Transformada. Tem-se como principal conclusão que um classificador linear pode ser obtido ao se empregar a Transformada Wavelet Packet como extrator de características. O classificador é linear baseado na existência ou não de nós na decomposição da Transformada Wavelet Packet. A função Wavelet que apresentou os melhores resultados foi a sym1et5 e a melhor função custo foi a entropia. Este classificador linear separa vozes normais de vozes patológicas com um erro de classificação de 23,07% para falsos positivos e de 14,58%para falsos negativos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho foi avaliar a atividade proliferativa das células epiteliais da mucosa lingual de camundongos frente à ação do etanol a 40° GL, baseado na contagem e mensuração das áreas das AgNORs através da técnica de impregnação pela prata. Foram utilizados 32 camundongos com 2 meses de vida, divididos em três grupos. Os grupos controle e aplicação tópica receberam ração padrão e água comum, sendo o último submetido ainda a 2 aplicações tópicas semanais de 1ml de etanol a 40 °GL. No grupo ingestão a água foi substituída por etanol na mesma graduação alcoólica. Os animais foram biopsiados no centro do dorso da língua, no início, aos 6 e 12 meses de experimento, e as peças submetidas ao processamento de rotina para inclusão em parafina. Fizeram-se cortes histológicos de 4 µm submetidos à técnica de impregnação pela prata. Foram avaliadas a contagem e área das AgNORs de 50 células da camada basal e 50 da camada suprabasal. Os resultados foram comparados pelo teste da análise da variância (ANOVA) e teste post-hoc da mínima diferença significativa (LSD). Observou-se um aumento da média do número e da área das AgNORs na camada suprabasal aos 12 meses, no grupo ingestão (p < 0,05). Conclui-se que a ingestão de etanol a 40° GL provoca um aumento da proliferação celular na mucosa bucal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dentre as profundas modificações experimentadas na Sociedade e, em especial, as que se produzem no mundo do trabalho, observamos movimentos em direção a formas de trabalho flexível, entre as quais se insere o Teletrabalho. Sem ser propriamente novo no cenário mundial, no Brasil ele surge com maior expressão recentemente, passando a ocupar espaços na mídia em geral e nos ambientes universitários. Todavia, são poucas as referências acadêmicas brasileiras ao assunto e estudos se fazem necessários. Com a pretensão de contribuir com conhecimentos a respeito do assunto, sob o prisma da realidade brasileira e de uma situação particular, o estudo utilizou referências teóricas e empíricas para examinar a viabilidade do Teletrabalho na Companhia de Processamento de Dados do Município de Porto Alegre. Abrangeu a análise de condições organizacionais, técnicas, humanas, legais e sindicais compreendidas na proposta e incluiu, igualmente, uma sugestão para um projeto de demonstração. O estudo, notadamente qualitativo, valoriza as perspectivas de segmentos potencialmente envolvidos num processo de adoção de Teletrabalho pela Empresa, como elemento para a sua compreensão. Foi desenvolvido mediante a realização de entrevistas com representantes dos sindicatos da categoria, dos funcionários e chefias, Diretoria da Empresa e especialistas em assuntos jurídicos e segurança de informações. O estudo concluiu ser a introdução do Teletrabalho viável em parte, num sistema de voluntariado, em regime de tempo parcial e, pelo menos inicialmente, em ambientes de telecentros. Mesmo existindo uma série de condições favoráveis, o atendimento de certos prérequisitos e o equacionamento de dúvidas e dificuldades são essenciais para promover uma implementação adequada, considerando as condições internas da Empresa, seu papel institucional e o contexto social onde está inserida. A pesquisa, na verdade, pode ser considerada um passo inicial dentro de um processo mais amplo, que integra o domínio da tecnologia do Teletrabalho para uso interno na Empresa, se assim for desejado, ou como uma alternativa para proposição de novos serviços a clientes e à comunidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho visa a investigação dos aspectos microestruturais, de cunho significativo nas propriedades mecânicas de um aço microligado, através da utilização de técnicas de microscopia eletrônica. Variações em parâmetros de produção e processamento de aços microligados produzem efeitos microestruturais diversos, os quais influenciam diretamente nas propriedades do material. Para tanto, é de suma importância a realização de um acompanhamento da evolução microestrutural de forjados, para que se possa entender os mecanismos de reforço estrutural, e assim, buscar controlá-los. Foram simuladas as condições industriais de forjamento em amostras de aço microligado ao nióbio, SAE 1141, utilizando um simulador termomecânico Gleeble. Esse aço é empregado na produção de garfos (terminal) forjados pela indústria automobilística. As variáveis controladas na simulação foram a temperatura de pré-aquecimento, percentual de deformação e taxa de resfriamento. Os aspectos microestruturais resultantes foram analisados por microscopia de luz visível e eletrônica de varredura. Especial atenção foi dada ao estudo dos aspectos subestruturais através da técnica de microscopia eletrônica de transmissão. Foram utilizadas para tal amostras do tipo réplica de extração em filme de carbono e lâminas finas Os estudos realizados neste trabalho poderão contribuir para otimização do processo de forjamento nessa classe de aços visando garantir boas propriedades mecânicas. Análises por nano-sonda EDS indicam a presença de partículas ricas em Nb. Foi constatado que a temperatura de pré-aquecimento para forjamento desempenha papel importante, pois a temperatura mais baixa, verifica-se fina precipitação de carbonitretos e o refino de grão é mais pronunciado. Este efeito é influenciado também pelo grau de deformação a quente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cada vez mais muitos processos industriais convencionais de separação, tais como destilação, centrifugação e extração com solventes, entre outros, estão sendo substituídos pelos processos de separação por membranas em virtude desses apresentarem vantagens em relação aos processos convencionais, além de serem considerados uma tecnologia limpa. Entre estas vantagens pode-se citar a economia de energia, pois não envolvem mudança de fase; a possibilidade de processamento de substâncias termolábeis, pois podem operar à temperatura ambiente; a maior seletividade; a facilidade de scale – up, pois são modulares e não extensivos em mão de obra, entre outros. Uma característica limitante destes processos é a existência de uma camada de elevada concentração de partículas ou moléculas que se forma próxima à superfície da membrana e que ocasiona uma redução no fluxo permeado, podendo modificar as características de retenção da membrana. Este fenômeno é conhecido como polarização por concentração. O entendimento dos mecanismos de polarização é considerado de grande importância neste campo e o estudo e validação de modelos matemáticos preditivos torna-se necessário para se obter sucesso na aplicação dos processos com membranas no meio industrial O objetivo geral deste trabalho consiste na análise teórico-experimental do processo de microfiltração tangencial com suspensão aquosa de partículas de sílica. O objetivo específico é a utilização de dados experimentais para a estimação de um parâmetro do modelo matemático que descreve o perfil de concentração na superfície da membrana ( membrana). A configuração tangencial implica que a alimentação, contendo as partículas a serem removidas ou concentradas, flui paralelamente à superfície da membrana reduzindo, assim, o fenômeno de polarização por concentração. Os experimentos foram efetuados em uma unidade de bancada de microfiltração tangencial, também conhecido como fluxo cruzado, em um módulo para membrana plana com canal de escoamento retangular sob condições de escoamento laminar. Os seguintes parâmetros foram variados durante os experimentos: pressão transmembrana, velocidade tangencial e concentração de partículas de sílica Os dados experimentais foram utilizados em uma modelagem matemática, baseada nas equações fundamentais da mecânica dos fluidos e da transferência de massa, que considera as propriedades físicas da suspensão, viscosidade dinâmica e difusividade mássica, variáveis com a concentração de sílica para se estimar a concentração máxima de sílica junto à superfície da membrana. Esta modelagem engloba os parâmetros operacionais, bem como as características da membrana nesta única variável. Com a finalidade de se verificar como a concentração máxima sobre a membrana é afetada pelas condições operacionais e, conseqüentemente, como esta afeta o fluxo permeado, a concentração máxima sobre a superfície da membrana é apresentada em função das condições operacionais variadas durante os experimentos de microfiltração. Finalmente, após a estimação desta variável, pôde-se concluir que ela é influenciada pelas condições operacionais típicas do processo de microfiltração tangencial, tais como velocidade tangencial de escoamento, pressão através da membrana e concentração da alimentação.