986 resultados para equipamento aplicador
Resumo:
Este trabalho aborda o desenvolvimento do Biodiesel como combustível de fontes renováveis na matriz energética brasileira. Em especial será abordada a flexibilidade de utilização entre o Diesel tradicional de origem petrolífera e o Biodiesel de origem vegetal. Será feita a avaliação do valor da flexibilidade de um equipamento com motor ciclo diesel quando da possibilidade de utilização de Diesel mineral ou Biodiesel. A valoração da flexibilidade operacional será feita utilizando a Teoria de Opções Reais. Por fim, será comentado o potencial de ganho no agregado para um país como o Brasil, com um modal de transportes predominantemente rodoviário movido a Diesel.
Resumo:
Com o desenvolvimento de materiais mais resistentes, técnicas construtivas mais modernas e a crescente valorização dos terrenos nos centros das grandes cidades, criou-se um ambiente propício à construção de edificações mais altas, leves, flexíveis, menos amortecidas, e, portanto, mais susceptíveis a problemas associados à resposta dinâmica frente à ação do vento. Em algumas situações, quando há ressonância, a parcela flutuante da resposta estrutural devido à ação do vento pode chegar a representar 2/3 da resposta total. Os métodos analíticos atualmente existentes para determinação da resposta flutuante induzida pela ação do vento geralmente conduzem a resultados pouco confiáveis. Em vista desse fato, os ensaios em túnel de vento ainda são a ferramenta mais precisa e robusta para o estudo do comportamento dinâmico de estruturas civis. Este trabalho apresenta o desenvolvimento de um suporte flexível para ensaios de modelos aeroelásticos de estruturas alteadas, visando a determinação da parcela flutuante da resposta à ação do vento nos dois modos fundamentais de vibração livre (flexão em duas direções ortogonais). Este suporte pode ser empregado em testes de modelos de diferentes geometrias, e permite que, com grande facilidade, sejam ajustados o amortecimento estrutural, rigidez e inércia, individualmente em cada direção. Com o objetivo de verificar o correto funcionamento do equipamento e a validade dos resultados por ele obtidos, foram realizados testes com um modelo do edifício alto padrão “CAARC Standard Tall Building”. No trabalho são apresentados e discutidos os resultados dos ensaios, realizados no Túnel de Vento Professor Joaquim Blessmann, da Universidade Federal do Rio Grande do Sul.
Resumo:
O desenvolvimento de um método analítico para determinação de Mg, Ti e Cl emcatalisadores suportados Ziegler-Natta (ZN) por espectroscopia de fluorescência de raios Xcom dispersão em comprimento de onda (WDXRF) foi avaliado. Três famílias decatalisadores com distintos teores de Mg, Ti e Cl foram utilizados. Para fins de comparação,os analitos foram também determinados por métodos clássicos, a saber, Mg porcomplexometria com EDTA, Ti por espectrofotometria e Cl por argentimetria. A naturezahigroscópica desses catalisadores impossibilitou a análise direta por WDXRF. Melhoresresultados na preparação da amostra foram obtidos através da calcinação (1000 0C), seguida de mistura com aglomerante (H3BO3), na proporção 1:4, para a determinação da razãoMg/Ti. O estudo do efeito da pressão sobre a intensidade do sinal analítico de Mg e de Ti evidencioua necessidade de prensagem das amostras em pressões superiores a 200 MPa. No caso de Mg e Ti, a determinação por Parâmetros Fundamentais (FP), a partir da medida da linha espectral do Ti, forneceu resultados equivalentes àqueles obtidos porcalibração univariada e por métodos clássicos. No entanto, a utilização de FP a partir damedida da linha espectral do Mg mostrou-se inadequada, provavelmente, devido ao baixo valor do número atômico do Mg. Nas três famílias de catalisadores ZN a razão Mg/Tiobservada foi 0,44 ± 0,01; 1,8 ± 0,05 e 4,9 ± 0,02. A determinação de Cl foi estudada através de extração em meio aquoso, seguida pordeposição de um alíquota da solução sobre diferentes suportes (filmes finos) e posteriorevaporação do solvente. Foram avaliados os suportes papel filtro quantitativo, membranasMillipore FHLC Teflon®, de difluoreto de polivinilideno, celulose, Nylon®, fita Kapton®(poliamida) e Mylar® (poliéster). Devido à natureza do Cl, houve perdas do elemento químicopor volatilização, durante as medidas, possivelmente devido ao vácuo e aquecimento daamostra dentro da câmara de análise do equipamento. A tentativa de fixação do Cl comoAgCl, seguida por deposição sobre a membrana Millipore FHLC foi considerada adequada.No entanto, a média dos resultados obtidos por WDXRF mostrou-se inferior quando comparada ao método argentimétrico utilizado como referência, para um nível de certeza de95%.
Resumo:
Este trabalho, de caráter exploratório, visou identificar o valor percebido pelos alunos de graduação de uma Instituição de Ensino Superior a respeito dos recursos de Tecnologia da Informação e de sua utilização voltada para as atividades acadêmicas. Para tal, foi utilizada a técnica de entrevistas em laddering. Vinte e cinco alunos de graduação foram entrevistados, através de uma das três seguintes modalidades: e-mail, telefone ou pessoalmente. Os resultados do trabalho incluem a construção do mapa hierárquico de valor e a identificação das dimensões de valor mais importantes. Foram identificados como importantes 4 atributos, 12 conseqüências de uso e 3 valores. Os atributos identificados como importantes são: “Bom acesso à Internet”, “Bom equipamento”, “Bom software” e “Capacidade de armazenamento”. As conseqüências de uso identificadas como importantes são: “Acesso a mais informações”, “Comunicação”, “Conseguir fazer os trabalhos”, “Facilidade de uso”, “Fazer trabalhos melhores”, “Ganhar tempo”, “Maior rapidez”, “Melhor desempenho acadêmico”, “Reutilização do material”, “Maior acesso ao mercado de trabalho”, “Mais tempo disponível” e “Poder trabalhar em qualquer horário”. Os valores identificados como importantes são: “Clareza e boa apresentação melhoram a avaliação”, “Meu tempo é importante” e “Ser competitivo no mercado de trabalho”. Como resultado do trabalho também pode ser apontado que a técnica de entrevistas em laddering mostrou-se adequada para o estudo em questão.
Resumo:
O objetivo deste estudo foi avaliar o desempenho de quatro aparelhos fotopolimerizadores comerciais que utilizam LED como fonte de luz: Elipar Free Light 2 (E), Radii (R), L.E.Demetron I (D) e Single V (S) na polimerização do compósito Z250, na cor A3, por 20s, através dos ensaios de sorção, solubilidade, nanodureza e módulo de elasticidade. Um fotopolimerizador convencional de lâmpada halógena XL2500 (XL) foi utilizado como parâmetro de comparação. Para o ensaio de sorção e solubilidade foram confeccionados 5 corpos de prova com 15mm de diâmetro e 1mm de espessura para cada aparelho fotopolimerizador. Os ensaios foram realizados segundo a especificação da ISO 4049:2000 e os resultados mostraram que todos os grupos atenderam às exigências da norma que permite, no máximo, 40g/mm2 de sorção e 7,5g/mm2 de solubilidade. Para o ensaio de nanodureza e módulo de elasticidade foram confeccionados 5 corpos de prova cilíndricos com 6mm de diâmetro e 4mm de altura, para cada aparelho fotopolimerizador. A medição foi feita, em profundidade (1mm, 2mm e 3mm), no interior do corpo de prova, 24 h após a confecção dos mesmos. Os valores de nanodureza foram obtidos a partir da média de quatro endentações, realizadas em cada uma das três profundidades, de cada corpo de prova, com o equipamento Fischerscope HV, utilizando penetrador Berkovich com carga de 250mN. Os resultados obtidos foram submetidos à análise de variância e ao teste de Tukey para comparação entre os aparelhos, em cada profundidade (α=0,05) e comparação individual de cada aparelho nas diferentes profundidades (α=0,05). Na profundidade de 1mm todos os grupos apresentaram valores de nanodureza estatisticamente superiores à profundidade de 3mm. Para a profundidade de 1mm não houve diferença estatisticamente significativa entre os aparelhos. Para a profundidade de 2mm os aparelhos LED R, D e S foram superiores ao XL, e E não apresentou diferença estatisticamente significativa de D, S e XL. Para a profundidade de 3mm, não foi observada diferença estatisticamente significativa entre os LEDs, sendo R estatisticamente superior ao XL. Os valores do módulo de elasticidade não mostraram diferença entre os grupos na profundidade de 1mm e para as profundidades de 2 e 3mm, o XL apresentou valor estatisticamente inferior aos LEDs que não mostraram diferença entre si. Os resultados permitiram concluir que todos os aparelhos LED analisados mostraram um desempenho no mínimo semelhante, senão melhor do que a lâmpada halógena, considerando as propriedades de sorção, solubilidade, nanodureza e módulo de elasticidade desenvolvidas por eles no compósito Z250.
Resumo:
Diante dos problemas vivenciados no ensino da Física cabe ao professor a tarefa de tentar combater as dificuldades de seus alunos, proporcionando-lhes experiências de aprendizagem eficazes, procurando atualizar, tanto quanto possível, os instrumentos pedagógicos que utiliza. Considerando a especificidade experimental da Física, a realização de atividades de laboratório faz-se de grande importância. Porém, uma reflexão a respeito de como utilizar tais atividades é necessária para que possam realmente contribuir para uma aprendizagem significativa. Nesta busca, a utilização da aquisição automática de dados através de dispositivos do tipo CBL (do inglês Calculator Based Laboratory) pode, sem dúvida, trazer grande contribuição. Aliando-se à grande potencialidade do uso destes dispositivos, à inexistência de trabalhos divulgados envolvendo seu uso no ensino de Física no Brasil e, finalmente, ao fato deste ser um equipamento adquirido recentemente pelo Centro Federal de Educação Tecnológica de Pelotas, instituição na qual este trabalho foi desenvolvido, optou-se por propor nesta dissertação a utilização de tais equipamentos em laboratório didático de Física Térmica no ensino médio. Dentre os assuntos abordados cita-se: calor, temperatura e energia interna; resfriamento de um corpo; mudança de estado físico e pressão de vapor; transmissão do calor. Alguns destes assuntos não são normalmente abordados no ensino médio, como a lei de resfriamento e análise da curva de pressão de vapor. Outros tópicos levam a uma maior contextualização da Física, como umidade relativa do ar e formação de geada. Esta proposta é fundamentada pela teoria da aprendizagem significativa de David Ausubel e pela teoria da interação social de Lev Vigotski Através desta experiência de implementação em aulas regulares de ensino médio, espera-se verificar a possibilidade de sua utilização neste nível de ensino. Como produto deste trabalho de dissertação, foi produzido material instrucional que compreende guias experimentais e textos envolvendo os conteúdos abordados, assim como material hipermídia sobre transmissão do calor contendo algumas animações e teste interativo desenvolvidos em Flash MX. Todo este material foi concebido e implementado buscando levar o aluno a uma aprendizagem significativa dos conceitos físicos.
Resumo:
Este trabalho apresenta o desenvolvimento de uma ferramenta computacional de apoio ao diagnóstico através de imagens ecocardiográficas, denominada de “Echo Offline”. O “Echo Offline” foi projetado para mensuração de grandezas lineares em imagens ecocardiográficas digitais, possibilitando a realização de diagnósticos pós-exame e a integração dos dados colhidos no banco de dados da instituição médica. Um estudo transversal contemporâneo e aleatório foi realizado com uma população de quarenta e nove pacientes submetidos a exames ecocardiográficos, as imagens resultantes deste exame foram digitalizadas e um médico especialista mensurou um conjunto de variáveis pré-definidas utilizando o método convencional, ou seja, usando as facilidades oferecidas pelo equipamento de ultra-som comercial. Um segundo médico especialista produziu outros dois conjuntos de dados utilizando o “Echo offline” e desta forma foi possível avaliar a exatidão e a repetibilidade das medidas realizadas pela ferramenta “Echo offline”. O “Echo offline” apresentou uma elevada concordância com o método convencional e apresentou significativa redução no tempo de realização das medidas.
Resumo:
A simulação, como ferramenta de suporte à tomada de decisão, tem sido utilizada nas mais variadas áreas do conhecimento e especialmente no projeto e dimensionamento de plantas de produção. Em geral, os simuladores para sistemas de produção consideram variáveis relativas à quantidade, tipo e disposição física de máquinas, quantidades dos estoques intermediários, e aos tempos de produção sem, no entanto, considerar os tempos reais do trabalho do ser humano envolvido no processo, apesar de a mão de obra humana ser largamente empregada nestes sistemas, afetando diretamente a sua produtividade. Uma das possíveis razões disto é a complexidade dos fatores que influenciam na produtividade do ser humano, que varia em função de fatores ambientais, fisiológicos, psicológicos ou sociais. Normalmente, os sistemas de simulação da produção representam o trabalhador humano da mesma forma como representam uma máquina, uma ferramenta ou um equipamento, cuja previsibilidade é bem maior. Esta dissertação avalia a questão humana em um simulador bastante utilizado comercialmente, e evidenciou que os fatores ergonômicos são capazes de alterar significativamente os resultados de uma simulação, justificando o desenvolvimento de rotinas computacionais capazes de representar o elemento humano e suas interações com o sistema, de forma mais fidedigna.
Resumo:
Este trabalho teve como objetivo o desenvolvimento de uma nova técnica para determinação do tamanho médio e da distribuição de tamanho de bolhas de ar em meio aquoso. A nova técnica, denominada de LTM-BSizer, uma vez otimizada, foi aplicada na caracterização das bolhas geradas por diversos métodos utilizados tanto na flotação para tratamento de efluentes líquidos quanto na flotação de partículas minerais e, principalmente, na investigação de parâmetros operacionais e do efeito do tamanho de bolhas na flotação de partículas minerais (quartzo como modelo) finas (40-10 µm) e ultrafinas (<10 µm). A técnica LTM-BSizer é baseada no conceito da captura, ou seja, ao contrário das técnicas fotográficas até agora propostas, onde as imagens (fotos ou vídeos) das bolhas em movimento foram obtidas com visores verticais, este método obteve as imagens das bolhas estabilizadas em um visor disposto na horizontal. Entre as vantagens em relação aos métodos fotográficos existentes destacam-se a melhor qualidade das imagens e a capacidade de medir distribuições de tamanho de bolha com grande amplitude, desde microbolhas (<100 µm) até bolhas maiores (~ 1 a 3 mm). Os métodos de geração de bolhas pesquisados foram: microbolhas geradas por despressurização de água saturada com ar em um vaso saturador (processo de flotação por ar dissolvido-FAD) ou por uma bomba centrífuga multifase (novo equipamento para geração de microbolhas), injeção de mistura ar-líquido através de um constritor tipo venturi (destaque na flotação não convencional), injeção de ar em cilindro inox poroso (comumente aplicado para dispersão de gás) e bolhas geradas em uma célula de flotação por ar induzido (FAI), convencional de bancada Para todos os métodos citados, exceto o último, a distribuição de tamanho de bolha foi avaliada numa coluna em acrílico com 200 cm de altura e 72 mm de diâmetro, onde através de um ponto de amostragem parte do fluxo foi conduzida até o visor. Os resultados obtidos com esta técnica foram, para os diâmetros médios de bolha: 30 a 70 µm para FAD, 65 a 130 µm para bomba multifase, 200 a 1400 µm para venturi, 500 a 1300 µm para FAI e 500 a 1000 µm para o cilindro poroso. A influência de alguns parâmetros operacionais na formação das bolhas foi estudada em detalhe e os resultados obtidos mostraram uma boa correspondência com os valores encontrados na literatura e em outros casos, elucidaram efeitos considerados contraditórios na literatura técnica. Este trabalho demonstrou que, o tamanho médio e a distribuição de tamanho das microbolhas, não são influenciados pela pressão de saturação no intervalo de 294 a 588 kPa, mas sim pela quantidade de bolhas e pelo tempo de retenção Também foi constatado que a diminuição da tensão superficial da água (adição de 30 mg/L de oleato de sódio) aumenta consideravelmente (3 a 8 vezes) o número de microbolhas na FAD a baixas pressões de saturação (196 e 294 kPa). O tamanho e a distribuição de tamanho de bolhas geradas em constrições de fluxo tipo venturi variam em função dos parâmetros concentração de tensoativo, velocidade superficial de líquido (UL) e razão gás/líquido (Qr). Uma pequena diminuição da tensão superficial, de 73 para 68 mN/m, provocada pela adição de 20 mg/L do tensoativo DF 250, foi suficiente para diminuir consideravelmente o tamanho das bolhas geradas, permanecendo constante para concentrações maiores, sugerindo que esta seja a concentração crítica de coalescência (CCC) para este sistema. Um aumento de UL (mantendo Qr constante) e diminuição de Qr (com UL constante) levaram a distribuições com menor amplitude e diâmetro médio. No caso das microbolhas geradas através da bomba multifase, o tamanho de bolhas diminuiu com a pressão até atingir o limite de solubilidade teórico ar/líquido. O tamanho das bolhas gerados através de placa porosa e FAI apresentaram boa correspondência com os reportados na literatura e em ambas as técnicas foi, de novo, encontrada, para DF 250, a mesma CCC igual a 20 mg/L. O sistema de flotação de partículas finas e ultrafinas, foi estudado via recuperação de finos de quartzo (50% < 10µm) em coluna de laboratório. As variáveis estudadas foram; a distribuição de tamanho de bolhas e a concentração de coletor (amina). Os resultados obtidos mostraram que a recuperação das frações mais finas aumenta com a diminuição do tamanho de bolhas de acordo com os modelos existentes de flotação. Entretanto, foi encontrado, na captura de partículas ultrafinas pelas bolhas, um valor ótimo de tamanho de partícula. Assim, a captura diminui com o tamanho de partícula até 5-7 µm e aumenta, de novo, nas frações menores. Esses resultados são discutidos em termos de um mecanismo de difusão como fenômeno predominante nos mecanismos de adesão bolha-partícula.
Resumo:
Os dispositivos analógicos programáveis (FPAAs, do inglês, Field Programmable Analog Arrays), apesar de ainda não terem a mesma popularidade de seus pares digitais (FPGAs, do inglês, Field Programmable Gate Arrays), possuem uma gama de aplicações bastante ampla, que vai desde o condicionamento de sinais em sistemas de instrumentação, até o processamento de sinais de radiofreqüência (RF) em telecomunicações. Porém, ao mesmo tempo em que os FPAAs trouxeram um impressionante ganho na agilidade de concepção de circuitos analógicos, também trouxeram um conjunto de novos problemas relativos ao teste deste tipo de dispositivo. Os FPAAs podem ser divididos em duas partes fundamentais: seus blocos programáveis básicos (CABs, do inglês, Configurable Analog Blocks) e sua rede de interconexões. A rede de interconexões, por sua vez, pode ser dividida em duas partes: interconexões internas (locais e globais entre CABs) e interconexões externas (envolvendo células de I/O). Todas estas partes apresentam características estruturais e funcionais distintas, de forma que devem ser testadas separadamente, pois necessitam que se considerem modelos de falhas, configurações e estímulos de teste específicos para assegurar uma boa taxa de detecção de defeitos. Como trabalhos anteriores já estudaram o teste dos CABs, o foco desta dissertação está direcionado ao desenvolvimento de metodologias que se propõem a testar a rede de interconexões de FPAAs. Apesar das várias diferenças entre as redes de interconexões de FPGAs e FPAAs, muitas também são as semelhanças entre elas, sendo, portanto, indiscutível que o ponto de partida deste trabalho tenha que ser o estudo das muitas técnicas propostas para o teste de interconexões em FPGAs, para posterior adaptação ao caso dos FPAAs. Além disto, embora o seu foco não recaia sobre o teste de CABs, pretende-se utilizá-los como recursos internos do dispositivo passíveis de gerar sinais e analisar respostas de teste, propondo uma abordagem de auto-teste integrado de interconexões que reduza o custo relativo ao equipamento externo de teste. Eventualmente, estes mesmos recursos poderão também ser utilizados para diagnóstico das partes defeituosas. Neste trabalho, utiliza-se como veículo de experimentação um dispositivo específico (Anadigm AN10E40), mas pretende-se que as metodologias de teste propostas sejam abrangentes e possam ser facilmente adaptadas a outros FPAAs comerciais que apresentem redes de interconexão semelhantes.
Resumo:
A tendência atual de desenvolvimento de novos equipamentos geotécnicos combina diferentes técnicas, aliando a robustez do ensaio de cone às informações adicionais de outros ensaios. O cone sísmico constitui-se em exemplo típico adotado internacionalmente. Geofones ou acelerômetros podem ser incorporados ao fuste do cone para medida de velocidade de propagação de ondas de compressão e cisalhamento. O cone possibilita uma estimativa da resistência ao cisalhamento de materiais geotécnicos, enquanto as medias sísmicas permitem medir o módulo cisalhante a pequenas deformações. A combinação de valores de resistência e deformabilidade, expressa através da razão entre Go/qc, pode representar uma alternativa importante na caracterização de solos. Nesta dissertação o cone sísmico foi projetado, construído, calibrado e testado no depósito argiloso do Aeroporto Internacional Salgado Filho em Porto Alegre. O equipamento é composto de um módulo onde são acondicionados dois sensores (geofones), distantes de 1,0 m, para a captação das ondas de cisalhamento. Os sinais são captados e enviados para um pré-amplificador com filtro, acondicionado no módulo sísmico, sendo posteriormente conduzidos para um segundo amplificador cuja taxa de amplificação pode ser regulada. O sinal adquirido é armazenado em um computador para análise posterior O ensaio de cone sísmico consiste basicamente na geração de uma onda de cisalhamento na superfície do solo e seu armazenamento com o sistema de aquisição de sinais. A determinação do módulo de cisalhamento é feita através da teoria da elasticidade, medindo-se os tempos de chegada da onda de cisalhamento em cada geofone e calculando-se a velocidade de percurso da onda entre os dois sensores. O trabalho contempla o desenvolvimento do cone sísmico, montagem, calibração e aplicação na Área do Aeroporto Internacional Salgado Filho. Os resultados obtidos são comparados a resultados de ensaios de cross-hole existentes no referido local.
Resumo:
Neste trabalho, desenvolveram-se modelos matemáticos simplificados para o cálculo de duas variáveis importantes no estudo da extrusão de polímeros: vazão mássica (M&) e pressão na saída da extrusora (Psaída), em função das propriedades dos materiais e das condições de operação do equipamento. Podem-se utilizar esses modelos como ferramentas simples para a definição de critérios de ajustes que se devem fazer em uma extrusora de parafuso único para obter-se o desempenho desejado quando se alimenta o equipamento com um novo material. Para desenvolverem-se os modelos simplificados, utilizaram-se dados experimentais da extrusão de poliestireno (PS) e de polipropileno (PP), bem como resultados preditos por um programa computacional de simulação de extrusão disponível comercialmente. Mediram-se os dados experimentais de vazão mássica e de pressão na saída da extrusora em um equipamento de parafuso único de 45 mm de diâmetro. Realizaram-se esses testes, variando-se a velocidade de rotação do parafuso de 70 a 100 rpm para ambos os polímeros. No primeiro conjunto de simulações, utilizou-se o simulador Flow 2000 (Compuplast Inc.) para ajustarem-se os valores preditos de M& e de Psaída aos dados obtidos experimentalmente através da estimação dos fatores de atrito barril-polímero tanto para o PP quanto para o PS. Posteriormente, realizou-se um planejamento de experimentos, do tipo fatorial fracionado , para obter-se um segundo conjunto de simulações, considerando-se as propriedades dos materiais (reológicas e térmicas) e as condições de operação da extrusora (velocidade de rotação do parafuso e perfil de temperatura nas zonas de aquecimento da extrusora) como fatores de investigação. Com as novas simulações no Flow 2000, ajustaram-se os parâmetros dos modelos simplificados aos valores de vazão mássica e de pressão na saída da extrusora preditos no simulador. Elaboraram-se os modelos simplificados levando-se em conta as interações entre os fatores cujos efeitos consideraram-se significativos nas análises de variância (ANOVA). Obteve-se um modelo linear com 37 termos para o cálculo da vazão mássica e um modelo linear com 41 termos para o cálculo da pressão na saída da extrusora. Posteriormente, aplicou-se uma técnica de regressão multivariável para selecionar apenas os termos importantes dessas 1402IV2− XVI equações, conduzindo a um modelo linear com 10 termos para o cálculo da vazão mássica e a um modelo com 6 termos para o cálculo da pressão na saída da extrusora. Conseguiu-se boa concordância entre os dados experimentais e os valores preditos quando se aplicaram os modelos simplificados.
Resumo:
O presente trabalho apresenta o desenvolvimento de um equipamento utilizado para acompanhamento e monitoramento do processo de nitretação a plasma enquanto ele ocorre, ou seja, de forma in-situ. Os resultados obtidos com a utilização deste equipamento são demonstrados e confirmam a potencialidade da técnica na caracterização de mecanismos de nitretação a plasma. Ensaios de adaptação à técnica foram realizados, visando adquirir experiência no reconhecimento e detecção de fases formadas durante o processo e de possibilidades de caracterização proporcionadas pela técnica. Desta forma a influência de três composições gasosas na formação de camadas nitretadas em aço médio carbono AISI 1045 foi avaliada de forma in-situ por difração de raios-X e post-mortem por metalografia, GDOS e microdureza Vickers. A composição gasosa de 76% N2 – 24% H2 mostrou alto poder de nitretação, e formou camadas de compostos espessas e zonas de difusão profundas, com aumentos consideráveis de dureza. A composição gasosa de 5% N2 – 95% H2, formou camadas de compostos pequenas e zonas de difusão profundas, além de aumentos de dureza superficial. Em uma segunda avaliação, amostras de aço AISI 1045, foram nitretadas em duas composições gasosas: 5% N2 – 95% H2 e 25% N2 – 75% H2, nas temperaturas de 450ºC, 480ºC, 520ºC, 540ºC e 560ºC. Com o acompanhamento in-situ por difração de raios-X de trechos específicos de 2Θ correspondentes às linhas de difração das fases γ’ e ε, foi possível obter o tempo de incubação da fase γ’ para cada combinação composição gasosa - temperatura, que foram comparados com dados já existentes para nitretação a gás. Também foi possível o acompanhamento do crescimento, desenvolvimento e de mudanças na largura das linhas destas fases O tempo de incubação da fase γ’ permitiu a comparação entre os resultados das nitretações a plasma e os resultados previstos por um diagrama de Lehrer, e uma boa correlação entre as fases previstas pelo diagrama e as encontradas na prática foi encontrada. As amostras foram avaliadas ainda por difração de raios-X em ângulos rasantes, que permitiu a caracterização das camadas mais superficiais das amostras e, com base nestes resultados e nos resultados das análises in-situ, obteve-se um mapa prático de previsão de fases para a nitretação a plasma.
Resumo:
O surgimento do computador provocou uma série de mudanças sócio-culturais. A educação não poderia ficar imune a essas alterações. Várias experiências do seu uso em educação surgiram, inicialmente em computadores de grande porte; posteriormente, com o surgimento dos microcomputadores, essas experiências se multiplicaram. Como esse equipamento vem sendo utilizado, avaliações já realizadas, alguns problemas existentes e perspectivas futuras são discutidas neste trabalho; que procura apresentar o Projeto Ciranda, implantado pela Embratel. Tendo como pano de fundo uma perspectiva educacional, discute a filosofia do projeto, seus objetivos e a população participante.