190 resultados para Redutores de velocidade
Resumo:
A forte pressão do mercado pela contratação de melhores serviços faz com que as empresas busquem tornar-se cada vez mais competitivas; portanto, em uma doutrina voltada à competitividade, as empresas obrigam-se a tratar as questões relacionadas às estratégias de Produção e Operações como fator prioritário para competir. Esta pesquisa propôs-se a estudar o mercado de construção de obras de rede de distribuição de energia elétrica. Inicialmente foram identificados os graus de importância para o cliente, com relação a determinados critérios competitivos. Logo após, foram identificados o desempenho das empresas para os mesmos critérios. Finalmente, por meio da Matriz Importância x Desempenho, avaliou-se a adequação entre o grau de importância para o cliente e o desempenho das empresas fornecedoras. As empresas selecionadas para esta pesquisa exploratória são: 1) cliente: Companhia Paranaense de Energia – COPEL, e 2) fornecedoras: empresas da região metropolitana de Curitiba/PR, com cadastro tipo “A” na COPEL. O resultado demonstrou haver, por parte do cliente, um equilíbrio com relação ao grau de importância nas dimensões competitivas qualidade, velocidade, confiabilidade, flexibilidade, custo e inovação. Com relação às empresas fornecedoras foi possível verificar que a grande maioria dos critérios competitivos se situou na “zona de melhoramento” da Matriz Importância x Desempenho.
Resumo:
A codificação de vídeo de modo a permitir a escalabilidade durante a transmissão tem se tornado um tópico de grande nos últimos anos. Em conjunto com um algorítmo de controle de congestionamento, é possível a criação de um ambiente de transmissão multimída mais apropriado. Esta dissertação apresente um algoritimo de codificação de vídeo escalável baseado em bit-planes. O modelo de codificação do video utiliza 3D-DCT para codificação espacial e temporal e um quantizador escalar semelehante ao empregado no MPEG 4. A técnica de escalabilidade em bit-planes implementada permite a divisão da saída de codificador em taxas complementares e com granularidade fina. Este algorítmo e parte integrante doprojeto SAM (Sistema Adaptativo Multimídia), que busca criar um ambiente de transmissão multimídia adaptativo em tempo real. Este projeto está em desenvolvimento na tese de doutorado de Valter Roesler. O algorítmo proposto e implementado é capaz de transmitir de forma unidirecional vídeos de baixa movimentação. Os resultados dos testes realizados com a implementação feita mostram que a solução proposta é flexível em realação a tecnologia disponível de transmissão através do ajuste no númerp de camadas e suas respectivas especificações de banda. Os testes realizados apresentaram um desempenho aceitável para codificação e decodificação de vídeo em tempo real. A taxa de compressão apresentou resultados satisfatórios na transmissao em ambientes de baixa velocidade para as camadas inferiores, bem como taxas de transmissão para ambientes em ADSL, cable modem e rede local para as camadas superiores. Com relação a qualidade do vídeo, esta varia de acordo com o grau de movimentação do mesmo. Por exemplo, no modelo "talking-head", comum em videoconferências, a qualidade se mostrou viável para ambientes de baixa velocidade (56 kbits/s).
Resumo:
O objetivo deste trabalho é estudar os efeitos eletromagnéticos e fluido-dinâmicos induzidos no aço, decorrentes do uso de um agitador eletromagnético. Para tal, foi proposta a construção de um modelo numérico que resolva, de forma acoplada, os problemas de eletromagnetismo e fluido-dinâmica. O modelo numérico do problema eletromagnético, em elementos finitos, foi construído utilizando-se o software Opera-3d/Elektra da Vector Fields. O mesmo foi validado com medidas experimentais de densidade de fluxo magnético feitas na usina. O escoamento decorrente da agitação eletromagnética foi resolvido fazendo-se o acoplamento das forças de Lorentz com as equações de Navier-Stokes. Essas últimas foram resolvidas pelo método de volumes finitos, usando-se o software CFX-4 da AEA Technology. O modelo eletromagnético mostrou que existe um torque máximo dependente da freqüência do campo magnético. Também foi observado que a força magnética aumenta em quatro vezes seu valor, quando a corrente é duplicada. O perfil de escoamento produzido no molde, sob agitação eletromagnética, indica, que as situações de lingotamento testadas, não propiciam o arraste da escória. A velocidade crítica de arraste, determinada via modelo físico, não foi atingida para nenhum caso testado. O modelo fluido-dinâmico e térmico apresentou um aumento do fluxo de calor cedido pelo fluido para a casca solidificada com o uso do agitador eletromagnético. Como conseqüência, observou-se uma queda na temperatura do banho. Também foi observado, que o uso do agitador propicia a remoção de inclusões das camadas mais externas do tarugo. Ao mesmo tempo, notou-se que o uso do agitador aumenta o índice de remoção de inclusões para as duas seções de molde analisadas.
Resumo:
O objetivo deste trabalho é a simulação numérica de escoamentos incompressíveis bidimensionais em dutos com expansão brusca, considerando o raio de expansão de 3 : 1. As equações governantes implementadas são as de Navier, que junto com relações constitutivas para a tensão visam representar comportamentos não newtonianos. A integração temporal é feita usando o esquema explícito de Runge-Kutta com três estágios e de segunda ordem; as derivadas espaciais são aproximadas pelo método de diferenças finitas centrais. Escoamentos em expansões bruscas para fluidos newtonianos apresentam um número de Reynolds crítico, dependente do raio de expansão, na qual três soluções passam a ser encontradas: uma solução sim étrica instável e duas soluções assimétricas rebatidas estáveis. Aumentando o número de Reynolds, a solução passa a ser tridimensional e dependente do tempo. Dessa forma, o objetivo é encontrar as diferenças que ocorrem no comportamento do fluxo quando o fluido utilizado possui características não newtonianas. As relações constitutivas empregadas pertencem à classe de fluidos newtonianos generalizados: power-law, Bingham e Herschel-Bulkley. Esses modelos prevêem comportamentos pseudoplásticos e dilatantes, plásticos e viscoplásticos, respectivamente. Os resultados numéricos mostram diferenças entre as soluções newtonianas e não newtonianas para Reynolds variando de 30 a 300. Os valores de Reynolds críticos para o modelo power-law não apresentaram grandes diferenças em comparação com os da solução newtoniana. Algumas variações foram percebidas nos perfis de velocidade. Entretanto, os resultados obtidos com os modelos de Bingham e Herschel-Bulkley apresentaram diferenças significativas quando comparados com os newtonianos com o aumento do parâmetro adimensional Bingham; à medida que Bingham é aumentado, o tamanho dos vórtices diminui. Além disso, os perfis de velocidade apresentam diferenças relevantes, uma vez que o fluxo possui regiões onde o fluido se comporta como sólido.
Resumo:
O presente trabalho teve como objetivo estudar a eficiência na aplicação de força a um barco “skiff” com dois tipos de pás de remo (“standard” e cutelo) e verificar se a utilização desses dois tipos de pás produziam alterações na técnica da remada. Um barco “skiff” foi preso por seis cabos de aço às bordas de uma piscina coberta. Um dinamômetro foi instalado a um destes cabos para coletar os dados de força, enquanto a técnica da remada foi estudada por meio de um sistema de cinemetria. A amostra consistiu-se de 5 remadores de diferentes clubes de Porto Alegre. Cada atleta remou um total de cinco minutos com cada pá de remo, mantendo uma voga de 10 remadas por minuto. Não houveram mudanças aparentes na técnica da remada. Um ganho médio de 13,13% de força foi observado a favor do remo cutelo, bem como um aumento de 2,19% no comprimento do percurso do cabo do remo na remada quando este remo foi utilizado. Essas evidências demonstram que o remo cutelo é mais eficiente que o remo “standard” na situação estudada. Assumindo-se que a velocidade de um barco tem relação com a força a ele aplicada, os resultados do presente estudo sugerem que o remo cutelo pode imprimir uma velocidade maior ao barco do que o remo “standard” pela sua maior aplicação de força e maior comprimento de remada.
Resumo:
Além de armazenar e distribuir o aço líquido para os moldes, uma das funções do distribuidor de lingotamento contínuo é a flotação e separação das inclusões para uma melhor qualidade do produto final. A eficiência e otimização deste processo requer o conhecimento das características do escoamento do aço líquido dentro do distribuidor. Esta dissertação trata do modelamento matemático do escoamento do aço num distribuidor DELTA-T, sem e com modificadores de fluxo e inibidores de turbulência, em condições isotérmicas e não isotérmicas em diferentes situações de vazão e condições térmicas. O software CFX-4 foi utilizado para resolver as equações de movimento, continuidade e transferência de calor utilizando modelo k-ε de turbulência para uma geometria tri-dimensional. A validação de modelo matemático com o modelo físico foi feita através da comparação de planos de laser entre os vetores de velocidade. Para a trajetória do escoamento foi utilizado no modelo físico a técnica do corante. Para a obtenção das curvas DTR – distribuição de tempos de residência no modelo físico foi usada a técnica de injeção de pulso, enquanto que no modelo numérico esta mesma técnica foi aplicada para um escoamento multifásico homogêneo. O perfil de temperatura calculado do aço na superfície foi comparado com medidas experimentais realizadas na usina O objetivo deste trabalho é caracterizar o escoamento do aço através dos perfis de velocidade, energia cinética de turbulência, perfis de temperatura e curvas de distribuição de tempos de residência, avaliando os tempos mínimo e médio de residência e as porções de volumes característicos. Os resultados obtidos indicam que o uso de modificadores de fluxo e inibidores de turbulência são eficientes no controle da emulsificação. É observado que o escoamento apresenta diferenças quando tratado isotermicamente e não isotermicamente.
Resumo:
Este trabalho apresenta simulações físicas de correntes de densidade não conservativas em canal bidimensional e tridimensional. Primeiramente, foram desenvolvidas a seleção e caracterização de materiais granulares, bem como a classificação de tamanhos de grãos adequados capazes de simular tais correntes. Foram desenvolvidas também, metodologias de ensaios, abordando os detalhes como a preparação de materiais, equipamentos e instalações. Como resultados foram selecionados cinco materiais para as simulações, a areia (0,125mm a 0,063mm); os calcários B e C (0,125mm a 0,063mm) e os carvões 205 e carvão 207 (0,354mm a 0,063mm). Através de ensaios por fluxo contínuo de material, caracterizado por uma injeção de mistura durante um período de tempo, foram estudados as características geométricas, dinâmicas e os padrões de deposição destas correntes. Nestes ensaios foram variados o material granular e seu tamanho de grão utilizado na mistura e a concentração da mistura. Observou-se que: a velocidade da corrente aumenta à medida que a massa específica/concentração da mistura aumenta; que à medida que o tamanho do grão diminui, para um mesmo material com a mesma massa específica na mistura, a velocidade aumenta; a altura da cabeça da corrente aumenta à medida que a massa específica/concentração da mistura diminui; a distribuição dos volumes de depósitos apresentou uma tendência geral, com acúmulo de material, da ordem de 90%, nas regiões mais proximais do canal (0-75cm) e acúmulo de material, da ordem de 5%, canal nas regiões mais distais do canal (150-250cm). A distribuição dos grãos indica que o tamanho dos grãos vai diminuindo com a distância, estando as frações maiores (correspondentes a areia fina) presentes nas zonas mais proximais do canal (até 50cm) e com os grãos mais finos chegando até as regiões mais distais do canal (250cm). Foi avaliada, também, a influência da vazão inicial e do volume total de material sobre o desenvolvimento e depósitos das correntes de densidade não conservativas. As características medidas foram a evolução e as velocidades da corrente, além da espessura, granulometria e formas de fundo dos depósitos gerados. Como resultados foi verificado que a velocidade de avanço, espessuras, formas de fundo e distribuição granulométricas do material estão intimamente mais ligada à vazão de entrada do que ao volume total. Nota-se que, a vazão condiciona a tendência geral da evolução da corrente (padrão de variação da velocidade e da deposição) e as formas de fundo, enquanto que o volume de material injetado é responsável apenas pela magnitude dessas variações.
Resumo:
A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.
Resumo:
A criptografia assumiu papel de destaque no cotidiano das pessoas, em virtude da necessidade de segurança em inúmeras transações eletrônicas. Em determinadas áreas, a utilização de hardware dedicado à tarefa de criptografia apresenta vantagens em relação à implementação em software, devido principalmente ao ganho de desempenho. Recentemente, o National Institute of Standards and Technology (NIST) publicou o novo padrão norte-americano de criptografia simétrica, chamado de Advanced Encryption Standard (AES). Após um período de aproximadamente 3 anos, no qual várias alternativas foram analisadas, adotou-se o algoritmo Rijndael. Assim, este trabalho apresenta um Soft IP do padrão AES, codificado em VHDL, visando a implementação em FPGA Altera. Todo o projeto foi construído com funções e bibliotecas genéricas, a fim de permitir a posterior implementação sobre outras tecnologias. Foram geradas duas versões: uma priorizando desempenho e outra priorizando a área ocupada nos componentes. Para cada uma das versões, produziu-se um circuito para encriptar e outro para decriptar. O desempenho alcançado em termos de velocidade de processamento superou todos os outros trabalhos publicados na área, sobre a mesma tecnologia. São apresentados os detalhes de implementação, arquiteturas envolvidas e decisões de projeto, bem como todos os resultados. A dissertação contém ainda conceitos básicos de criptografia e uma descrição do algoritmo Rijndael.
Resumo:
A produção de soja é uma das principais atividades econômicas na Região Noroeste do Estado do Rio Grande do Sul. As perdas de produto em condições de comercialização ocasionadas nas atividades de secagem e armazenamento são significativas, justificando a pesquisa e aprimoramento destes processos. Nesta tese foram pesquisados dois problemas: 1. Modelamento matemático dos processos de secagem, utilizando parâmetros conhecidos de soja e 2. Modelamento matemático do problema de aeração para o cálculo da distribuição da pressão e da velocidade do ar na massa de grãos em unidades de armazenamento de soja. No problema de secagem foi desenvolvido um sistema composto de quatro equações diferenciais parciais hiperbólicas acopladas não-lineares, que descreve o comportamento da temperatura e do teor de umidade do ar e dos grãos em função do tempo. Para resolver o sistema foram utilizados os métodos das diferenças finitas (p. ex., métodos de MacCormack e Crank- Nicolson.) e o método dos volumes finitos. A análise dos resultados permitiu recomendar o método mais adequado para cada tipo do problema. Para determinação da intensidade do fluxo de massa e de calor foram utilizados os dados experimentais de camada fina obtidos da literatura e complementados com dados experimentais desta tese. Foi desenvolvido um equipamento para obtenção das curvas de secagem de grãos em secador de leito fixo, a fim de identificar o modelo para secagem em camada espessa. A comparação entre os resultados experimentais e das simulações numéricas mostrou que o modelo descreve razoavelmente a dinâmica de secagem No problema de aeração foi desenvolvido um modelo matemático que descreve o escoamento do ar em sistemas de armazenamento de grãos, baseado em relações experimentais entre velocidade e gradiente de pressão. Para resolver o problema de aeração foi utilizado o método dos elementos finitos e desenvolvido um programa computacional. Um teste realizado com o programa mostrou que os resultados da solução numérica convergem para uma solução analítica conhecida. As simulações realizadas mostraram que o programa computacional pode ser usado como instrumento auxiliar para o projeto de silos, possibilitando o cálculo e a visualização gráfica da distribuição das pressões e das linhas de corrente em diferentes seções do armazém.
Resumo:
O presente trabalho destina-se a apresentar a experiência de montagem e de validação de uma Bancada de Calibração de sensores para determinação da umidade relativa do ar com base nas teorias e normas existentes de psicrometria. A Bancada foi construída com base em normas internacionais, onde salienta-se a ASHRAE 41.1-1974, sendo uma evolução de trabalhos anteriormente desenvolvidos. A validação da bancada passa por uma verificação do funcionamento do sistema montado, buscando garantir que o mesmo é eficaz no que se propõe. Para isso, curvas de estabilidade em temperatura e umidade relativa do ar em função do tempo foram levantadas e analisadas dentro de uma certa faixa de operação, entre 30,50 e 44,50 ºC e para temperatura de bulbo úmido, entre 25,00 e 31,10 ºC. Para a estabilidade em umidade relativa do ar testada, a faixa varia de 57,20 a 74,46 %. Também foi verificado experimentalmente o comportamento da temperatura de bulbo úmido em função da velocidade do ar no escoamento, entre 1,25 e 5,00m/s. Para a comprovação desta verificação experimental, os dados coletados nos sensores e termômetros foram corrigidos através das equações de calibração e depois os mesmos foram comparados e estudados mediante uma análise de variância (ANOVA). Os resultados dos testes revelaram que a velocidade na faixa experimentada (1,25 a 5,00) m/s não gera uma diferença significativa na leitura dos sensores Um outro teste experimental foi elaborado para verificar o comportamento da temperatura de bulbo úmido em função da umidade relativa do ar para diversos elementos sensores de temperatura. (termômetros de Hg, sensores PT100, AD592 e termopar tipo K). Para esta verificação, os elementos sensores foram submetidos a uma velocidade de 5,00 m/s. Para cada nível de temperatura, três níveis de umidade relativa do ar foram analisadas. Os resultados mostram que a Bancada de calibração é um ambiente controlado dentro de uma faixa de temperatura e umidade relativa do ar, sendo um recurso a mais que pode ser usado no vasto campo da psicrometria.
Resumo:
Com o avanço da globalização, surgem dúvidas quanto às conseqüências desse significativo processo para os países em desenvolvimento. Apesar disso, alguns fatos são inquestionáveis, como, por exemplo, a necessidade que terão as empresas, em especial as brasileiras, de buscar novas “fórmulas” para continuar competindo neste novo contexto globalizado. A tecnologia deve permanecer sendo um “divisor de águas” entre os líderes de mercado e seus seguidores, no entanto, seria razoável supor que a competição não se restrinja somente a esse aspecto, devendo abranger outros, também importantes, como é o caso dos processos de produção. Nesse contexto, surge a Produção Enxuta, que, por atacar sistematicamente os desperdícios dentro dos processos produtivos, busca a maximização da eficácia operacional dos mesmos, e por essa razão, tem-se mostrado como uma opção bastante exitosa dentro da competição globalizada. Apesar disso, a adoção da Produção Enxuta nas empresas ocidentais não tem acontecido na proporção e velocidade que permitissem a necessária redução da vantagem competitiva que as empresas japonesas auferiram através do seu uso. Isso se deve, no entender desta pesquisa, à falta de um entendimento mais profundo dos seus conceitos, elementos, e, principalmente, à ausência de um cuidado maior por parte das referidas empresas em estabelecer uma coerência com a sua própria política competitiva, ao tentar introduzir esses novos conceitos nos seus sistemas fabris. Este trabalho parte da premissa de que deve existir essa clara ligação entre as ações de melhoria executadas no “chão-de-fábrica” e a própria estratégia competitiva da empresa Nesse sentido, propõe o modelo de uma abordagem estruturada que pode permitir tal coerência. Desta forma é apresentada uma revisão bibliográfica, dividida em 4 partes onde, na primeira são abordados os conceitos básicos de estratégias competitivas, na segunda são revisados os sistemas de produção, em especial o Sistema de Produção em Massa, para assim permitir o seu contraste com a Produção Enxuta, apresentada logo após, na terceira parte. E, finalmente, na quarta parte, devido à sua relevância dentro da lógica de gestão enxuta de produção, é feita uma releitura da Autonomação, seus conceitos e potencialidades como preparação ao estudo de caso apresentado no final do trabalho, o qual foi desenvolvido na Pirelli Pneus S.A., onde o referido modelo foi aplicado com sucesso no processo de um produto considerado maduro, que já demonstra, inclusive, características de um commodity. A pesquisa é finalizada com a resenha dos resultados alcançados, bem como com a apresentação de considerações do autor quanto às dificuldades e peculiaridades relevantes relativas à experimentação do modelo proposto, concluindo-se, então, que a Eliminação das Perdas e a Autonomação podem servir de base para uma estratégia de produção com potencial para alavancar toda a estratégia competitiva da empresa.
Resumo:
Neste trabalho é apresentado um estudo sobre a dinâmica de paredes de domínios através de medidas de impedanciometria. É proposto um método que permite a obtenção dos seguintes parâmetros das amostras estudadas: mobilidade e velocidade crítica das paredes, largura dos domínios e de suas paredes, densidade de energia de parede e constante efetiva de troca. Todas essas informações são obtidas a partir do espectro em freqüência da permeabilidade e de relações apropriadas entre a permeabilidade e a impedância complexa. O elo de ligação entre essas quantidades é feita através do efeito da profundidade de penetração, cuja definição inclui a freqüência, a resistividade e a permeabilidade do material. O método foi aplicado ao estudo de dois tipos diferentes de materiais, (i) (110)[001]FeSi3%, policristalino e altamente texturizado com tamanho de grãos bastante grande (~ 5 mm) e (ii) amostras nanocristalinas obtidas através do recozimento de fitas amorfas de Fe73.5Cu1Nb3Si16.5B6. Enquanto o primeiro sistema foi utilizado para se fazer uma comparação entre os parâmetros aqui obtidos com aqueles de outros autores e técnicas, o segundo foi estudado em termos das modificações da anisotropia magnética associadas ao alívio das tensões internas com a temperatura de recozimento.
Resumo:
A busca de maior precisão nos dados hidrológicos é de fundamental importância no sentido de minimizar as incertezas inerentes aos mesmos e, conseqüentemente, aos estudos e projetos que os têm como base. A curva-chave, ferramenta importante na conversão de dados de cota em vazão, carece de estudos no sentido de aumentar a confiabilidade na sua calibragem e principalmente na sua extrapolação inferior e superior. O objetivo deste trabalho é avaliar os métodos tradicionais de extrapolação superior da curva-chave, a saber: Stevens, Logarítmico, Manning e Velocidade-Área, além de duas variações propostas para os dois últimos (Manning Log e VxA Log). Para tal foram utilizadas 100 estações fluviométricas, a partir de uma metodologia proposta e denominada de Pseudo- Extrapolação. Nesta metodologia, suprimem-se as medições na metade superior da faixa de cotas medidas e extrapola-se a curva-chave nesta faixa utilizando-se os métodos escolhidos. As vazões geradas nesta 'extrapolação' são comparadas com as da curva-chave calibrada para o total das medições. Os resultados mostraram que a metodologia de pseudo-extrapolação proposta é uma ferramenta válida para comparação entre métodos de extrapolação, até onde as características da seção transversal na faixa extrapolada sejam semelhantes às da faixa de pseudoextrapolação. Em relação aos métodos de extrapolação avaliados verificou-se que os métodos de Stevens e Manning Log mostraram resultados ligeiramente melhores que os demais e o método Logarítmico, apesar da inconstância nos erros calculados, mostrou-se como uma opção que deve ser admitida num estudo de extrapolação de curvas-chave. Além disso, as variações propostas, Manning Log e VxA Log, apresentaram resultados que merecem uma investigação mais profunda.
Resumo:
As artes visuais, e especificamente a fotografia, possibilitam uma linguagem indireta e ao mesmo tempo subjetiva sobre as transformações do espaço. Isto nos faz pensar sobre o olhar singular do sujeito, que por sua vez também diz respeito ao contexto urbano como um todo. A fotografia ingressa neste trabalho como ferramenta comum de captação das imagens em três experiências por mim realizadas através de percursos. Ela não contribui apenas como um instrumento mecânico capaz de gerar imagens mas, principalmente, como um processo de reflexão sobre a arquitetura através da origem do processo fotográfico negativo-positivo e suas alternâncias (presença/ausência, mobilidade/imobilidade, luz/sombra, irreversível/inacabável) numa relação com a cidade. A primeira experiência, realizada junto ao viaduto Otávio Rocha, apresentada em pranchas de contato, tem o movimento futurista como referencial teórico, e relaciona o deslocamento do sujeito salientando questões referentes à simultaneidade, à velocidade, à mobilidade e à multiplicidade de imagens Na seqüência fotográfica, realizada na segunda experiência em Paris, a simultaneidade acontece através do acaso e da leitura das imagens que apresenta outros percursos realizados através do pensamento analógico, com referência no movimento surrealista. A terceira experiência se concentra especificamente no olhar, na atenção, no acúmulo de imagens e nas sombras projetadas, próprio do processo fotográfico, relacionado-os com o fenômeno urbano e o processo de tradução do fotográfico: o desenho panorâmico da avenida Borges de Medeiros. As características das imagens destas três experiências estão muito próximas das situações vividas na cidade. A fragmentação o acúmulo fotográficos gerados a partir dos percursos, constituem uma resposta simbólica à relação do sujeito na realidade urbana O processo de resgate do olhar do sujeito é análogo ao processo fotográfico pois, ao fotografarmos, iniciamos um processo de assimilação que se completa com o trabalho do negativo. O ato fotográfico, como tal, representa, enfim, a concretização da importância física do olhar de cada sujeito sobre a arquitetura e sobre a cidade.