910 resultados para VISCOSIDADE DO FLUXO DOS FLUÍDOS
Resumo:
A hiperprolinemia tipo II é um erro inato do metabolismo de aminoácido causado pela deficiência na atividade da Ä1 pirrolino-5-carboxilato desidrogenase. O bloqueio dessa reação resulta no acúmulo tecidual de prolina. A doença caracteriza-se fundamentalmente por epilepsia, convulsões e um grau variável de retardo mental, cuja etiopatogenia ainda é desconhecida. No tecido nervoso, a Na+, K+ - ATPase controla o ambiente iônico relacionado com a atividade neuronal, regulando o volume celular, o fluxo de íons e o transporte de moléculas ligadas ao transporte de Na+, tais como, aminoácidos, neurotransmissores e glicose. Evidências na literatura mostram que recém nascidos humanos com baixos níveis de Na+, K+ -ATPase cerebral apresentam epilepsia e degeneração espongiforme. Alterações na atividade desta enzima têm sido associadas a várias doenças que afetam o sistema nervoso central, como isquemia cerebral e doença de Parkinson. Considerando que a inibição da Na+, K+ - ATPase por ouabaína tem sido associada com liberação de neurotransmissores, incluindo glutamato, em uma variedade de preparações neuronais, e que alguns autores sugerem que o efeito da prolina sobre a sinapse glutamatérgica possa ser, pelo menos em parte, responsável pelos sintomas neurológicos encontrados nos pacientes com hiperprolinemia, no presente trabalho verificamos efeitos dos modelos experimentais agudo e crônico de hiperprolinemia tipo II sobre a atividade da Na+, K+ - ATPase de membrana plasmática sináptica de córtex cerebral e hipocampo de ratos. No modelo crônico, a prolina foi administrada a ratos Wistar duas vezes ao dia do 6o ao 28o dia de vida, enquanto que no modelo agudo os animais, com 15 dias de vida, receberam uma única injeção de prolina e foram sacrificados 1hora após a administração da droga. Os animais tratados crônicamente com prolina não apresentaram alterações significativas no peso corporal, do encéfalo, do hipocampo e do córtex cerebral, bem como nas quantidades de proteínas do homogenizado cerebral e da membrana plasmática sináptica de córtex cerebral e hipocampo. Nossos resultados mostraram uma diminuição significativa na atividade da Na+, K+ - ATPase de membrana plasmática sináptica de cérebro de animais tratados aguda e crônicamente com prolina. Foram também testados os efeitos in vitro da prolina e do glutamato sobre a atividade da Na+, K+- ATPase. Os resultados mostraram que os dois aminoácidos, nas concentrações de 1,0 e 2,0 mM, inibiram significativamente a atividade da enzima. O estudo da interação cinética entre prolina e glutamato, sugere a existência de um sítio único de ligação na Na+, K+ - ATPase para os dois aminoácidos. É possível que a inibição na atividade da Na+, K+- ATPase possa estar envolvida nos mecanismos pelos quais a prolina é neurotóxica. Acreditamos que nossos resultados possam contribuir, pelo menos em parte, na compreensão da disfunção neurológica encontrada em pacientes com hiperprolinemia tipo II.
Resumo:
Analisa com métodos cienciométricos a relação entre algumas características de uma amostra de periódicos de Física e os valores de Fator de Impacto (FI) publicados no Journal Citation Reports (JCR), no período de 1993 a 2000. As características estudadas são: sub-área do conhecimento, evolução temporal, tipo e tamanho do periódico, densidade dos artigos e ritmo de obsolescência da literatura. A amostra foi constituída de modo não aleatório, abrangendo todos os títulos classificados pelo Journal Citation Reports (JCR) como sendo de algumas sub-áreas da Física: Física; Física Aplicada; Física Atômica, Molecular e Química; Física da Matéria Condensada; Física de Fluídos e de Plasmas; Física Matemática; Física Nuclear; Física de Partículas e Campos; Ótica; e, Astronomia e Astrofísica. Ao total analisou-se 376 periódicos. Foi elaborado um banco de dados no programa Statistics Packet for Social Science (SPSS) versão 8.0 para a coleta das informações necessárias para a realização do estudo, bem como para o tratamento estatístico das mesmas. As hipóteses de trabalho foram testadas através da Análise de Variância (ANOVA), do Teste χ2 e da Dupla Análise de Variância por Posto de Friedman. As análises empreendidas resultaram na comprovação das seis hipóteses de trabalho à medida que foi verificado que as variáveis: tipo, tamanho, densidade, ritmo de obsolescência, sub-área e tempo influenciam, umas em maior grau, outras com menor intensidade, os valores de FI. Especificamente, destaca-se que o tamanho e o ritmo de obsolescência são as características dos periódicos que se correlacionam mais fortemente com o FI. A densidade apresentou o menor poder explicativo das diferenças existentes entre o impacto das publicações. O aspecto mais relevante verificado está na existência de associação entre sub-área e FI. As cinco sub-áreas que se distinguem das demais são: a Óptica e a Física Aplicada por apresentarem valores médios baixos de FI; e a Física de Partículas e Campos, a Física Atômica, Molecular e Química e a Física Nuclear devido às médias altas. O estudo conclui que o FI deve ser utilizado somente de modo contextualizado e relativizado.
Resumo:
Há aproximadamente meio século, as praias situadas a sotamar do Porto do Mucuripe, em Fortaleza, vem sofrendo intensos processos erosivos, creditados em grande parte à construção e ampliação deste porto. O fato é que o acentuado crescimento urbano da capital cearense ocasionou a fixação de dunas e a quebra do fluxo longitudinal de sedimentos em seu litoral, resultando no recuo da linha de costa e na necessidade de intervenção antrópica por meio de obras rígidas que viessem a garantir a preservação da infra-estrutura existente nos trechos mais afetados. Como conseqüência da fixação das praias, o suprimento de material sedimentar passou a ficar retido, enquanto que o potencial de transporte das ondas se preservou. A quebra deste equilíbrio dinâmico acarretou a transferência dos processos erosivos para as praias adjacentes, o que tornou-se um problema cada vez maior, pois as soluções adotadas nestas praias eram idênticas às anteriores. As conseqüências deste processo para uma cidade como Fortaleza, onde o turismo é uma das principais fontes de renda, são graves, dado que como resultado final, encontramos longos trechos de praias com a balneabilidade comprometida e perda de qualidade visual. O litoral situado a oeste da capital é limitado à direita pela foz do Rio Ceará e à esquerda por um promontório rochoso, onde situa-se a Ponta do Pecém. Este trecho compreende aproximadamente 30 km de praias arenosas, com granulometria média e fina, e com ondas incidindo sobre a costa de forma obliqua, o que as torna o principal mecanismo de transporte de sedimentos. A ocupação urbana concentra-se principalmente nas praias mais próximas a Fortaleza, onde observa-se ainda, o afloramento de rochas de praia e grande perda de material sedimentar, fornecendo indícios da transferência dos processos erosivos da orla marítima da capital para estas praias. Com a conclusão das obras do Porto do Pecém e de um pólo industrial que visa desfrutar da localização estratégica deste porto, é natural que ocorra uma intensificação nos processos de ocupação urbana das praias próximas à área. Tal constatação motivou um trabalho de modelagem da dinâmica desta zona com o objetivo de nortear um plano de uso e ocupação das áreas localizadas próximas à praia, de forma que se possa prever o comportamento da linha de costa e evitar que sejam repetidos certos equívocos como a construção em zonas de forte dinâmica e a fixação das fontes primárias de fornecimento de sedimentos, que são as dunas frontais. Dada a disponibilidade de dados, bons processadores e aos custos significativamente reduzidos da modelagem numérica, adotou-se o pacote GENESIS – RCPWAVE, que além de ser de domínio público, é a base do sistema de modelagem de linha de costa adotado pelo CERC (Coastal Engineering Research Center), U.S.A., para aplicações em costa aberta, em regiões sujeitas às intervenções humanas. A calibração do modelo se fez considerando as linhas de praia medidas em 1974 pela DHN e em 2001 com o uso de GPS. Os dados de onda utilizados foram obtidos por um ondógrafo direcional do tipo Waverider, instalado a uma profundidade de 18 metros nas proximidades da Ponta do Pecém. Os dados relativos ao modelo conceitual dos processos predominantes na região, como: contribuições externas, variação granulométrica e variações sazonais de perfis foram obtidos de levantamentos bibliográficos de trabalhos anteriores. Por último, informações relativas às estruturas existentes e seu comportamento, ao afloramento de formações rochosas e o último levantamento da linha de praia, foram obtidas através de trabalhos de campo. De uma forma geral, o comportamento previsto pelo modelo mostrou-se semelhante ao observado nos diferentes levantamentos. Considerando-se as limitações dos processos envolvidos no levantamento de dados, onde tanto a carta da DHN quanto o mapeamento por satélite estão sujeitos a imprecisões e ainda, que a série de dados confiáveis de ondas para a região possuía apenas dois anos, é importante notar que, em linhas gerais, a formulação matemática do modelo representou satisfatoriamente os processos envolvidos. Os resultados fornecidos possibilitam a extrapolação da evolução da linha de costa e indicam pontos de provável recuo ou avanço da praia, norteando a sua ocupação. A ferramenta gerada proporciona ainda a avaliação do impacto de intervenções por meio de estruturas rígidas ou engordamento de praia ao longo do tempo e gera uma estimativa dos valores de deriva litorânea para os diferentes trechos de praia, possibilitando avaliar os efeitos das intervenções nas praias adjacentes.
Resumo:
O presente trabalho apresenta o estudo e implementação de um algoritmo numérico para análise de escoamentos turbulentos, tridimensionais, transientes, incompressíveis e isotérmicos, através da Simulação de Grande Escalas, empregando o Método de Elementos Finitos. A modelagem matemática do problema baseia-se nas equações de conservação de massa e quantidade de movimento de um fluido quase-incompressível. Adota-se um esquema de Taylor-Galerkin, com integração reduzida e fórmulas analíticas das funções de interpolação, para o elemento hexaédrico de oito nós, com funções lineares para as componentes de velocidade e constante no elemento para a pressão. Para abordar o problema da turbulência, emprega-se a Simulação de Grandes Escalas, com modelo para escalas inferiores à resolução da malha. Foram implementados o modelo clássico de Smagorinsky e o modelo dinâmico de viscosidade turbulenta, inicialmente proposto por Germano et al, 1991. Uma nova metodologia, denominada filtragem por elementos finitos independentes, é proposta e empregada, para o processo de segunda filtragem do modelo dinâmico. O esquema, que utiliza elementos finitos independentes envolvendo cada nó da malha original, apresentou bons resultados com um baixo custo computacional adicional. São apresentados resultados para problemas clássicos, que demonstram a validade do sistema desenvolvido. A aplicabilidade do esquema utilizado, para análise de escoamentos caracterizados por elevados números de Reynolds, é discutida no capítulo final. São apresentadas sugestões para aprimorar o esquema, visando superar as dificuldades encontradas com respeito ao tempo total de processamento, para análise de escoamentos tridimensionais, turbulentos e transientes .
Resumo:
O presente trabalho apresenta o desenvolvimento de um estudo da extração de óleo vegetal em instalações industriais do tipo Rotocell. O extrator tem forma cilíndrica e possui um eixo principal no qual estão fixos vagões que transportam os sólidos através do extrator, e, abaixo desses existem reservatórios responsáveis pelo recebimento da micela. Acima dos vagões há seções de distribuição de micela que é despejada sobre os sólidos dos vagões, que extrai o óleo. Possui também seções de carregamento e drenagem. Um modelo físico-matemático e um programa para simular a operação do extrator foram desenvolvidos considerando os seguintes fenômenos: difusão de óleo pela micela; transferência de óleo entre as fases bulk e poro; variação da massa específica e viscosidade da micela; os processos nas seções de drenagem e de carregamento. Na forma final, o modelo acoplado apresenta-se em termos de redes neurais artificiais, que possibilita operar com tempos discretos e contínuos, permitindo a simulação numérica deste extrator industrial, o treinamento favorável da rede, sua identificação, e o acompanhamento em tempo real. Foram determinadas características da matéria-prima através de um trabalho experimental em laboratório. Através dos resultados obteve-se a validação do modelo por meios teóricos e experimentais Os resultados teóricos foram comparados com os dados experimentais e com cálculos feitos através do método de estágios ideais. As simulações numéricas revelam propriedades do campo de extração para o regime transiente com distribuição uniforme e regime transiente industrial, onde verifica-se que o modelo descreve corretamente o comportamento real do campo de percolação do extrator. Também foram realizadas simulações numéricas com o objetivo de avaliar as principais características do extrator em função da sua geometria e características da matéria-prima, variando a altura e o número de vagões do extrator verificou-se que é possível simular o comportamento do extrator para diferentes formas e tipo de qualidades da matéria-prima. Foram feitas simulações utilizando um solvente alternativo(álcool) e mudando parâmetros do extrator, onde observou-se que o solvente exige alterações na dimensão do extrator.
Resumo:
O objetivo geral desse estudo é analisar a aplicação da metodologia do fluxo de caixa descontado, comparando os resultados realizados em dois períodos (exercícios) com os resultados projetados. Nessa análise verifica-se que considerando a taxa do WACC de 14,5% e da perpetuidade de 2,5% como premissas para adoção da metodologia do fluxo de caixa descontado com a contabilidade a valores históricos, incluindo o ativo imobilizado acrescido de reavaliação e o registro de créditos tributários sobre prejuízos fiscais, as diferenças apuradas pelos dois critérios não são relevantes. A pesquisa sobre a utilidade do custo histórico como base de valor demonstrou que a principal vantagem na sua utilização está na sua objetividade de apuração dos valores e a principal desvantagem consiste em não considerar os efeitos da variação da moeda no tempo, na contabilidade. A utilização dos princípios de custo histórico corrigido e de valores de reposição (custo corrente) possibilita a identificação de informações gerenciais de alta qualidade, eliminando os efeitos da inflação, contudo a sua elaboração contém certo grau de complexidade e subjetividade que impõe cuidados adicionais e necessita de maiores recursos para manter-se atualizada. O tratamento quanto aos valores de saída/realização possui como principal restrição a subjetividade quanto a forma de sua apuração. O acompanhamento gerencial fornece um enriquecimento das informações, contudo a exemplo dos valores de custo corrente existem restrições quanto ao grau de complexidade necessária para sua apuração. Em empresas que tenham como principal ativo, os valores intangíveis, Iudícibus recomenda que sejam procedidas, pelo menos avaliações anuais dos intangíveis gerados. Os juros sobre o capital próprio deveriam ser tratados de maneira consistente, bem como correspondentes ao custo do capital próprio como forma de resolver a questão da falta de reconhecimento contábil do custo de oportunidade. As conclusões finais que podemos obter são de que o método do fluxo de caixa descontado representa uma tentativa de antecipar os resultados futuros a serem apurados de acordo com o princípio de custo histórico. Portanto, sua adoção não elimina a necessidade de manter-se a contabilidade que utiliza o custo como base de valor, bem como representa amelhor alternativa em termos de metodologia para apuração do valor da empresa, considerando uma empresa que pretende manter a continuidade de suas operações. Outra consideração é de que a empresa vale o seu valor líquido de realização na hipótese de uma venda ordenada ou o valor de seu fluxo de caixa futuro, dos dois o maior.
Resumo:
O presente trabalho visou analisar os efeitos da formação do Mercosul sobre o desempenho das exportações brasileiras da carne avícola. Na investigação do desempenho das exportações brasileiras de frango, buscouse identificar se o incremento dessas no comércio intrabloco ocorreu em virtude das vantagens comparativas brasileiras, ou se o setor, beneficiado por acordos setoriais, deslocou a oferta do produto de terceiros países, caracterizando um desvio de comércio. Para tanto, foram traçados os seguintes objetivos: descrever a cadeia de produção de aves de corte na região Sul do Brasil; identificar os principais mercados consumidores e os principais concorrentes da avicultura brasileira; analisar a intensidade de comércio no mercado de frangos em vista da formação do Mercosul e identificar as tendências para a avicultura brasileira frente ao aprofundamento do processo de integração. Para tanto, foram utilizados o Índice de Intensidade de Comércio, o Índice de Orientação Regional da Exportações Brasileiras de frango, juntamente com o Índice das Vantagens Comparativas Reveladas das Exportações Brasileiras de Frango para a determinação da intensidade e da orientação do mercado de carne de frango ocorrida com a implementação do Mercosul e para verificar se essa intensidade ocorreu em razão das vantagens comparativas da produção brasileira de frangos. Nesse caso, a análise está concentrada no fluxo comercial ocorrido entre o Brasil e a Argentina, a qual é o principal mercado do frango brasileiro no Mercosul. Além da Argentina, o Paraguai também foi incluído na análise, por ser o segundo parceiro do bloco em importância no mercado de frangos. Conclui-se que a constituição do bloco econômico apresentou como benefício a criação de comércio de frangos, sobretudo quando da constituição da zona de livre-comércio.
Resumo:
Este trabalho faz uma análise ampla sobre os algoritmos de posicionamento. Diversos são extraídos da literatura e de publicações recentes de posicionamento. Eles foram implementados para uma comparação mais precisa. Novos métodos são propostos, com resultados promissores. A maior parte dos algoritmos, ao contrário do que costuma encontrar-se na literatura, é explicada com detalhes de implementação, de forma que não fiquem questões em aberto. Isto só possível pela forte base de implementação por trás deste texto. O algorítmo de Fidduccia Mateyeses, por exemplo, é um algorítmo complexo e por isto foi explicado com detalhes de implementação. Assim como uma revisão de técnicas conhecidas e publicadas, este trabalho oferece algumas inovações no fluxo de posicionamento. Propõe-se um novo algorítimo para posicionamento inicial, bem como uma variação inédita do Cluster Growth que mostrta ótimos resultados. É apresentada uma série de evoluções ao algorítmo de Simulated Annealling: cálculo automático de temperatura inicial, funções de perturbação gulosas (direcionadas a força), combinação de funções de perturbação atingindo melhores resultados (em torno de 20%), otimização no cálculo de tamanho dos fios (avaliação das redes modificadas e aproveitamento de cálculos anteriores, com ganhos em torno de 45%). Todas estas modificações propiciam uma maior velocidade e convergência do método de Simulated Annealling. É mostrado que os algorítmos construtivos (incluindo o posicionador do Tropic, baseado em quadratura com Terminal Propagation) apresentam um resultado pior que o Simulated Annealling em termos de qualidade de posicionamento às custas de um longo tempo de CPD. Porém, o uso de técnicas propostas neste trabalho, em conjunto com outras técnicas propostas em outros trabalhos (como o trabalho de Lixin Su) podem acelerar o SA, de forma que a relação qualidade/tempo aumente.
Resumo:
As técnicas de espectrofluorimetria, viscosimetria e espalhamento de luz têm sido utilizadas no estudo da agregação de diferentes surfactantes aniônicos em presença de 0,5% (m/v) de (hidroxipropil)celulose, no regime diluído (HPC Mw = 173000 g/mol), e em moderada força iônica (NaCl 0,1 M). Admitindo-se uma faixa geral de concentração, entre 10-5 e 10-2 mol.L-1, foram empregados neste estudo os surfactantes colato de sódio (CS), deoxicolato de sódio (DC), derivados dos sais bilares, e o alquilsintético dodecil sulfato de sódio (SDS). O polímero HPC contribui diferentemente no processo de agregação de cada surfactante, evidenciado pela mudança dos valores da concentração de agregação crítica, C1, em relação à concentração micelar crítica (cmc), obtidos pela técnica de espectrofluorimetria. Ambos os valores de C1 diminuem com respeito à cmc para SDS, bem como para DC, enquanto um ligeiro aumento é observado para CS. Os dados de viscosidade relativa, ηrel, indicam um aumento substancial da viscosidade dos sistemas HPC/sais biliares a altas concentrações de surfactante. Diferentemente, para o sistema HPC/SDS, os valores de ηrel passam por um máximo a 3 mmol.L-1 em agregados e decresce a valores abaixo da viscosidade da solução polimérica livre de surfactante. As medidas da temperatura de turbidez (Tturb), por espalhamento de luz, para os sistemas HPC/sais biliares, mostraram um crescimento gradual de Tturb em função do aumento da concentração de surfactante, de 37 oC (0,5% HPC/NaCl 0,1 M) até estabilizar-se em torno de 50o C, para concentrações mais elevadas. Por outro lado, para HPC/SDS, a Tturb cresce acentuadamente, superando a temperatura de 100 oC a contrações maiores do que 20 mmol.L-1. Através do espalhamento de luz dinâmico, verificou-se a existência de dois modos difusivos (rápido e lento) para todos os sistemas estudados. A principal contribuição é proveniente do modo rápido, exceto na faixa de concentração entre C1 e a concentração de saturação, C2, na qual ambos os modos contribuem igualmente. Esses modos estão relacionados inicialmente a agregados HPC/surfactante e a “clusters” do polímero e, posteriormente, a agregados HPC/surfactante e micelas livres. Os resultados indicam uma interação HPC/SDS mais efetiva do que HPC/DC ou HPC/CS, fato este relacionado à estrutura dos agregados formados. Comparativamente, os agregados HPC/sais biliares são menores, possuem menor densidade de carga e são mais rígidos do que os agregados de HPC/SDS.
Resumo:
o presente trabalho apresenta dados referentes a um levantamento dos níveis de pressão sonora equivalente (Leq),para as 24 horas de um dia típico de semana, em diversos pontos da cidade de Porto Alegre, no Rio Grande do Sul. As informações são processadas através de diferentes análises estatísticas, comparadas com dados de trabalhos anteriores e com resultados de equações de predição de ruído urbano. A metodologia adotada é semelhante à utilizada por García & Faus (1991), em trabalho realizado em cidades da Espanha. O levantamento dos dados de ruído urbano, em período de 24 horas, permite um maior nível de detalhes para a geração de modelos de predição de níveis de pressão sonora e auxilia na visualização da curva de padrões de ruídos horários, para um determinado espaço urbano. Quatorze pontos da cidade foram monitorados, em áreas com características diferenciadas (densidade, população, fluxo de veículos), o que possibilitou verificar os diferentes padrões de ruído associados para cada situação.
Resumo:
Neste trabalho, duas equações modedlo na área da dinâmica de gases rarefeitos, são derivadas a partir de algumas soluções exatas da equação linearizada de Boltzmann homogênea e não homogênea. Em adição, uma versão analítca do método de ordenadas discretas é usado para resolver problemas clássicos nesta área, descritos pelo "Modelo S". Resultados numéricos são apresentados para os problemas de fluxo de Couette, fluxo de Poiseuille, "Creep" Térmico, Deslizamento Térmico e problema de Kramers.
Resumo:
Este trabalho apresenta o LIT, uma ferramenta de auxílio ao projeto de circuitos integrados analógicos que utiliza a técnica da associação trapezoidal de transistores (TAT) sobre uma matriz digital pré-difundida. A principal característica é a conversão de cada transistor simples de um circuito analógico em uma associação TAT equivalente, seguido da síntese automática do leiaute da associação séria-paralela de transistores. A ferramenta é baseada na matriz SOT (sea-of-transistors), cuja arquitetura é voltada para o projeto de circuitos digitais. A matriz é formada somente por transistores unitários de canal curto de dimensões fixas. Através da técnica TAT, entretanto, é possível criar associações série-paralelas cujo comportamento DC aproxima-se dos transistores de dimensões diferentes dos unitários. O LIT é capaz de gerar automaticamente o leiaute da matriz SOT e dos TATs, além de células analógicas básicas, como par diferencial e espelho de corrente, respeitando as regras de casamento de transistores. O cálculo dos TATs equivalentes também é realizado pela ferramenta. Ela permite a interação com o usuário no momento da escolha da melhor associação. Uma lista de possíveis associações é fornecida, cabendo ao projetista escolher a melhor. Além disso, foi incluído na ferramenta um ambiente gráfico para posicionamento das células sobre a matriz e um roteador global automático. Com isso, é possível realizar todo o fluxo de projeto de um circuito analógico com TATs dentro do mesmo ambiente, sem a necessidade de migração para outras ferramentas. Foi realizado também um estudo sobre o cálculo do TAT equivalente, sendo que dois métodos foram implementados: aproximação por resistores lineares (válida para transistores unitários de canal longo) e aproximação pelo modelo analítico da corrente de dreno através do modelo BSIM3. Três diferentes critérios para a escolha da melhor associação foram abordados e discutidos: menor diferença de corrente entre o TAT e o transistor simples, menor número de transistores unitários e menor condutância de saída. Como circuito de teste, foi realizado o projeto com TATs de um amplificador operacional de dois estágios (amplificador Miller) e a sua comparação com o mesmo projeto utilizando transistores full-custom. Os resultados demonstram que se pode obter bons resultados usando esta técnica, principalmente em termos de desempenho em freqüência. A contribuição da ferramenta LIT ao projeto de circuitos analógicos reside na redução do tempo de projeto, sendo que as tarefas mais suscetíveis a erro são automatizadas, como a geração do leiaute da matriz e das células e o roteamento global. O ambiente de projeto, totalmente gráfico, permite que mesmo projetistas analógicos menos experientes realizem projetos com rapidez e qualidade. Além disso, a ferramenta também pode ser usada para fins educacionais, já que as facilidades proporcionadas ajudam na compreensão da metodologia de projeto.
Resumo:
Sistemas de gerência de workflow estão sendo amplamente utilizados para a modelagem e a execução dos processos de negócios das organizações. Tipicamente, esses sistemas interpretam um workflow e atribuem atividades a participantes, os quais podem utilizar ferramentas e aplicativos para sua realização. Recentemente, XML começou a ser utilizada como linguagem para representação dos processos bem como para a interoperação entre várias máquinas de workflow. Os processos de negócio são, na grande maioria, dinâmicos, podendo ser modi- ficados devido a inúmeros fatores, que vão desde a correção de erros até a adaptação a novas leis externas à organização. Conseqüentemente, os workflows correspondentes devem também evoluir, para se adequar às novas especificações do processo. Algumas propostas para o tratamento deste problema já foram definidas, enfocando principalmente as alterações sobre o fluxo de controle. Entretanto, para workflows representados em XML, ainda não foram definidos mecanismos apropriados para que a evolução possa ser realizada. Este trabalho apresenta uma estratégia para a evolução de esquemas de workflow representados em XML. Esta estratégia é construída a partir do conceito de versionamento, que permite o armazenamento de diversas versões de esquemas e a consulta ao hist´orico de versões e instâncias. As versões são representadas de acordo com uma linguagem que considera os aspectos de evolução. As instâncias, responsáveis pelas execuções particulares das versões, também são adequadamente modeladas. Além disso, é definido um método para a migração de instâncias entre versões de esquema, no caso de uma evolução. A aplicabilidade da estratégia proposta é verificada por meio de um estudo de caso.
Resumo:
O objetivo deste trabalho é estudar os efeitos eletromagnéticos e fluido-dinâmicos induzidos no aço, decorrentes do uso de um agitador eletromagnético. Para tal, foi proposta a construção de um modelo numérico que resolva, de forma acoplada, os problemas de eletromagnetismo e fluido-dinâmica. O modelo numérico do problema eletromagnético, em elementos finitos, foi construído utilizando-se o software Opera-3d/Elektra da Vector Fields. O mesmo foi validado com medidas experimentais de densidade de fluxo magnético feitas na usina. O escoamento decorrente da agitação eletromagnética foi resolvido fazendo-se o acoplamento das forças de Lorentz com as equações de Navier-Stokes. Essas últimas foram resolvidas pelo método de volumes finitos, usando-se o software CFX-4 da AEA Technology. O modelo eletromagnético mostrou que existe um torque máximo dependente da freqüência do campo magnético. Também foi observado que a força magnética aumenta em quatro vezes seu valor, quando a corrente é duplicada. O perfil de escoamento produzido no molde, sob agitação eletromagnética, indica, que as situações de lingotamento testadas, não propiciam o arraste da escória. A velocidade crítica de arraste, determinada via modelo físico, não foi atingida para nenhum caso testado. O modelo fluido-dinâmico e térmico apresentou um aumento do fluxo de calor cedido pelo fluido para a casca solidificada com o uso do agitador eletromagnético. Como conseqüência, observou-se uma queda na temperatura do banho. Também foi observado, que o uso do agitador propicia a remoção de inclusões das camadas mais externas do tarugo. Ao mesmo tempo, notou-se que o uso do agitador aumenta o índice de remoção de inclusões para as duas seções de molde analisadas.
Resumo:
O grande objetivo em finanças para os gestores das empresas é o de proporcionar aumento de valor aos acionistas. Para que isso possa ser efetivamente implementado, é necessário que o investimento proporcione para o acionista um retorno superior ao custo de oportunidade do seu capital, contemplando o risco do investimento, mensurado através de um modelo de avaliação. Este trabalho apresenta os principais conceitos de avaliação de ativos, destacando a criação de valor como a medida mais importante do desempenho da empresa. O fluxo de caixa descontado é abordado como o método que melhor resume o conceito de criação de valor, destacando-se o fluxo de caixa do acionista e o fluxo de caixa da empresa. Também são apresentados a forma de apuração dos fluxos de caixa, a estimativa das taxas de crescimento, algumas situações especiais onde o fluxo de caixa descontado necessita de adaptações e outros métodos alternativos de análise de investimentos, sendo que nenhum deles é capaz de superar a técnica do valor presente líquido – VPL, pois o método do VPL utiliza todos os fluxos de caixa de um projeto, descontando-os corretamente de acordo com o custo de oportunidade do capital O estudo mostra, ainda, uma rápida explanação das principais técnicas de mensuração do risco e do retorno exigido pelos investidores ou proprietários segundo a teoria de valor, como o CAPM (Capital Asset Price Model), o APM (Arbitrage Pricing Model) e o Multifatorial, destacando-se entre eles a dificuldade de mensuração do custo do capital próprio em empresas de capital fechado no Brasil, para a devida apuração da taxa de desconto. A metodologia proposta é aplicada na avaliação do investimento, em um novo ponto de venda, realizado por uma pequena empresa familiar do setor supermercadista. Dessa forma, ao final do estudo, propõe-se a utilização de uma ferramenta gerencial, baseada no fluxo de caixa descontado, para avaliação de futuros investimentos da empresa, buscando-se assim a maximização de valor para o acionista ou proprietário.