957 resultados para Operações lógicas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o advento dos computadores surgiram problemas de saúde associados à tarefa da digitação, causados, principalmente, pela posição estática do corpo, pela repetitividade de movimentos dos membros superiores, pelas forças envolvidas, etc. Na tentativa de relacionar esses fatores com os distúrbios, iniciou-se, na década de 90, o estudo da força aplicada nos teclados de computador. O objetivo principal deste trabalho é desenvolver uma plataforma para medir a força aplicada nas teclas do teclado de um computador durante a digitação, para utilização em biomecânica. Foi projetada e construída uma plataforma de força que mede a força vertical, Fz, (direção z), a força horizontal (e transversal) ao teclado, Fy, (direção y) e o momento aplicado no eixo horizontal e longitudinal ao teclado, Mx, (eixo x). Com estes três componentes é possível, numa análise bidimensional (2D), determinar a magnitude do vetor força resultante, seu ângulo com plano horizontal e o ponto de aplicação sobre a superfície da tecla. Os sensores utilizados foram os extensômetros de resistência elétrica, colados em placas que deformam-se principalmente por flexão; estes sensores são ligados em ponte completa de Wheatstone para cada canal de aquisição, Fx, Fy e Mx. Foi construído um modelo em madeira, PVC e acrílico, na escala 4,5:1, para auxiliar na busca de soluções de problemas de construção. Com o objetivo de aperfeiçoar o modelo conceitual criado, utilizou-se modelamento numérico (elementos finitos) Os sinais adquiridos para cada canal são independentes, não necessitando de operações posteriores. O sistema de aquisição é composto por um computador para armazenar e posteriormente tratar matematicamente os dados coletados, por uma placa de aquisição (A/D) de dados, um condicionador de sinais e o programa SAD 2.0 para aquisição e processamento de dados. A linearidade da plataforma de força permaneceu dentro dos limites de 3 % durante a calibração estática. Os testes dinâmicos mostraram que a plataforma possui freqüência fundamental superior a 2300 Hz, o que permite que ela seja utilizada com segurança para a análise de forças aplicadas durante a digitação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos Sistemas de Informação Geográfica (SIG), os aspectos temporais são importantes, principalmente, para representar o histórico de dados georreferenciados. Vários modelos conceituais de dados para SIG propõem classes e operações que permitem representar os aspectos espaciais e temporais das aplicações. Porém, ao nível do modelo interno dos sistemas atuais, as estruturas de dados armazenam e manipulam somente os aspectos espaciais dos dados geográficos, não contemplando os aspectos espaço-temporais propostos nos modelos conceituais. O objetivo desse trabalho é estender estruturas de dados do tipo quadtree para suporte ao armazenamento e à recuperação de dados espaço-temporais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Descoberta de Conhecimento em Banco de Dados (DCBD) é uma nova área de pesquisa que envolve o processo de extração de conhecimento útil implícito em grandes bases de dados. Existem várias metodologias para a realização de um processo de DCBD cuja essência consiste basicamente nas fases de entendimento do domínio do problema, pré-processamento, mineração de dados e pós-processamento. Na literatura sobre o assunto existem muitos trabalhos a respeito de mineração de dados, porém pouco se encontra sobre o processo de pré-processamento. Assim, o objetivo deste trabalho consiste no estudo do pré-processamento, já que é a fase que consome a maior parte do tempo e esforço de todo o processo de DCBD pois envolve operações de entendimento, seleção, limpeza e transformação de dados. Muitas vezes, essas operações precisam ser repetidas de modo a aprimorar a qualidade dos dados e, conseqüentemente, melhorar também a acurácia e eficiência do processo de mineração. A estrutura do trabalho abrange cinco capítulos. Inicialmente, apresenta-se a introdução e motivação para trabalho, juntamente com os objetivos e a metodologia utilizada. No segundo capítulo são abordadas metodologias para o processo de DCBD destacando-se CRISP-DM e a proposta por Fayyad, Piatetsky-Shapiro e Smyth. No terceiro capítulo são apresentadas as sub-fases da fase de pré-processamento contemplando-se entendimento, seleção, limpeza e transformação de dados, bem como os principais métodos e técnicas relacionados às mesmas. Já no quarto capítulo são descritos os experimentos realizados sobre uma base de dados real. Finalmente, no quinto capítulo são apresentadas as considerações finais sobre pré-processamento no processo de DCBD, apontando as dificuldades encontradas na prática, contribuições do presente trabalho e pretensões da continuidade do mesmo. Considera-se como principais contribuições deste trabalho a apresentação de métodos e técnicas de pré-processamento existentes, a comprovação da importância da interatividade com o especialista do domínio ao longo de todo o processo de DCBD, mas principalmente nas tomadas de decisões da fase de pré-processamento, bem como as sugestões de como realizar um pré-processamento sobre uma base de dados real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho focaliza o processo de formulação e enunciação de “problemas” políticos “sociais”, tendo como contexto de análise e coleta de material empírico a Assembléia Legislativa do Rio Grande do Sul. O objetivo é elucidar os interesses, relações e práticas sociais mobilizadas pelos deputados com vistas a intervir sobre “problemas” deste tipo. Para tanto, são abordadas as origens sociais, as formas de inserção política, a mobilização e gestão de vínculos com o que designam como “bases eleitorais” e as condições sociais e institucionais da atividade parlamentar. O exame destes aspectos busca demonstrar que a atuação dos deputados com relação ao “social” não é algo que possa ser compreendido apenas com base nas divisões políticas mais institucionalizadas, como os partidos e as respectivas coalizões, envolvendo diferentes lógicas e recursos sociais que interagem, também de diferentes maneiras, com o que se define como “política”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bancos de Dados Temporais (BDTs) surgiram para tentar suprir a necessidade de se obter um melhor aproveitamento das informações que circulam atualmente. Porém, ao mesmo tempo em que é benéfico o seu uso, uma vez que armazenam o histórico das informações, existe um problema neste tipo de banco de dados, que é o desempenho. Além do grande volume de dados armazenados, este problema se agrava ainda mais devido à complexidade nas operações que governam os BDTs, como por exemplo, inclusão, remoção, alteração e consulta. Portanto, focalizando o problema, existe a necessidade de melhorar o desempenho dos BDTs frente às operações de manipulação de dados. Técnicas de indexação apropriadas para dados temporais podem amenizar este problema de desempenho. Técnicas consagradas de indexação são largamente usadas, amparadas no seu alto grau de desempenho e portabilidade. São exemplos B-Tree, B+-Tree e R-Tree, entre outras. Estas técnicas não suportam indexar os complexos BDTs, mas são fundamentais para que sirvam de base para novas estruturas que suportem esses tipos de dados. As técnicas de indexação para dados temporais existentes não conseguem suprir a semântica temporal na sua totalidade. Existem ainda algumas deficiências do tipo: poucas técnicas que abrangem ao mesmo tempo tempo de validade e tempo de transação; não existe uma técnica que oferece informações do seu desempenho; a maioria não distingue ponto no tempo de intervalo de tempo; entre outras. Entretanto, possuem características relevantes em cada uma delas. Assim, um estudo das características mais importantes se tornou um fator importante para que possa ser desenvolvido um modelo capaz de auxiliar na criação de novas técnicas de indexação para dados temporais, a fim de contemplar melhor estes tipos de dados. O objetivo deste trabalho é, com base nas características das técnicas estudadas, desenvolver um framework conceitual capaz de auxiliar na criação de novas técnicas de indexação para dados temporais. Esta estrutura apresenta as características mais relevantes das técnicas existentes, agregando novas idéias e conceitos para contemplar os dados temporais. O framework conceitual desenvolvido agrega características de diferentes técnicas de indexação, possibilitando de variar a arquitetura de um índice para dados temporais, ajustando-os para um melhor desempenho em diferentes sistemas. Para validar o framework proposto é apresentada uma especificação de índices para o modelo de dados TF-ORM (Temporal Functionality in Objects With Roles Model).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A ocorrência de alguns eventos na história recente mostrou ao mundo os riscos envolvidos nos processos de liquidação de transações financeiras e o potencial de que eventuais distúrbios nestes processos contaminem e desestabilizem os mercados financeiros e as economias em geral. Por serem utilizados como instrumento de transferência de recursos entre agentes econômicos, os sistemas de pagamentos são um importante canal de transmissão de turbulências entre os mercados e sistemas financeiros nacionais e internacionais. Como conseqüência, o aprimoramento de sistemas de pagamentos evoluiu internacionalmente e de forma significativa nos últimos anos podendo ser encarada como uma revolução na tecnologia e na rotina dos sistemas operacionais dos bancos. No Brasil, foi tão profundo quanto a reforma no Sistema Financeiro Nacional de 1964 e tão importante a ponto de colocar o país no mesmo nível dos países monetariamente mais desenvolvidos do mundo O objetivo central do presente estudo é o de analisar a capacidade que os novos sistemas de pagamentos tem em reduzir os riscos presentes nas transações financeiras. Para tanto, avaliam-se as crises financeiras internacionais recentes e sua relação com a instabilidade econômica; verifica-se o papel e a importância dos sistemas de pagamentos; identifica-se a forma pela qual os bancos centrais padronizaram os modelos adotados internacionalmente; avalia-se o Sistema de Pagamentos Brasileiro (SPB); e busca averiguar se a proposta do Banco Central de transferir o ônus de arcar com o risco sistêmico para os agentes participantes do sistema de fato ocorre. Conclui-se que os novos sistemas permitem anular os riscos presentes em sistemas de pagamentos e, por conseqüência, reduzir o risco sistêmico. Pelo fato de não mais aceitar saldos negativos nas contas de reservas bancárias em qualquer momento do dia e através da constituição de garantias, os eventuais riscos que surgem ficam restritos ao ambiente em que foram gerados. Palavras-chave: Sistemas de Pagamentos; Sistema de Pagamentos Brasileiro (SPB);Sistemas Operacionais Bancários; Sistemas Financeiros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essa dissertação aborda o tema simulação de serviços. É apresentada abordagem para estudo de empresas prestadoras de serviços a partir da ótica de avaliação e otimização de produtividade, custos operacionais e lead-time. A abordagem proposta foi desenvolvida com base em estudo de caso realizado junto à empresa Scherer Informática, que atua na área de manutenção de computadores. Os cenários gerados e as simulações dos serviços prestados foram realizados com o suporte de software específico para a modelagem de serviços: o Servicemodel. O estudo possibilitou a empresa conhecer: (i) o melhor dimensionamento das equipes de front office e back office, (ii) a melhor distribuição dos funcionários, que conduz a maior produtividade, (iii) a melhor qualificação da equipe, que minimiza custos operacionais, e, (iv) a análise do lead-time, que permitiu identificar as operações críticas e estabelecer um plano de melhorias visando agilizar o atendimento ao cliente. As etapas observadas no estudo de caso constituem uma abordagem para a otimização de serviços, que considera produtividade, custos operacionais e lead-time. Devido à generalidade das etapas propostas, a abordagem pode ser adaptada para o uso em outras empresas, subsidiando decisões relativas à melhoria dos processos de prestação de serviços.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho, inserido na área de Planejamento, Programação e Controle da Engenharia de Produção, aborda especificamente as questões ligadas à gestão da capacidade produtiva, desenvolvendo um modelo sistêmico voltado a unidades de tratamento manual de objetos postais, os chamados Centros de Triagem. A partir do levantamento de um arcabouço teórico que fundamenta a proposta e da realização de estudos e trabalhos práticos efetuados pelo autor no Centro de Triagem de Porto Alegre, Rio Grande do Sul, os diversos níveis de planejamento, programação e controle de capacidade produtiva são discutidos e encadeados em uma seqüência lógica de entradas e saídas de informações fundamentais para a gestão dessas unidades operacionais. Dessa maneira, uma série de conceitos tradicionais de Engenharia de Produção foram adaptados à realidade de sistemas postais, desenvolvendo, dessa maneira, um método de gestão de capacidade produtiva customizada ao escopo do estudo. Embora o resultado prático do trabalho seja de utilidade específica para a gestão de Centros de Triagem manuais de carga postal, os conceitos discutidos e mesmo o modelo desenvolvido podem ser facilmente adaptados a outras unidades operacionais de correios e de outras indústrias, em especial as de operações de serviços.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O tema central deste trabalho é o Planejamento, Programação e Controle da Produção na indústria, com o auxílio de uma ferramenta computacional, do tipo Finite Capacity Schedule (FCS). No Brasil, essa categoria de software é denominada, genericamente, por Sistemas de Planejamento Fino de Produção ou de Capacidade Finita. Alinhado com as tendências mundiais e a vantagem de menores investimentos em hardware, o sistema escolhido é compatível com a operação em microcomputadores. Na primeira parte do trabalho, o assunto é tratado de forma geral, quando se pretende caraterizar amplamente o problema da programação da produção, as dificuldades na sua execução, as soluções existentes e suas limitações. A segunda parte do trabalho discute, detalhadamente, os métodos tradicionais de planejamento de materiais e capacidade. A revisão bibliográfica se encerra com uma apresentação dos sistemas FCS e sua classificação. A terceira parte trata da descrição, ensaios e avaliação da programação gerada por um software de Planejamento Fino de Produção determinístico, baseado na lógica de simulação computacional com regras de decisão. Embora a avaliação esteja limitada ao software utilizado, a análise ainda vai procurar identificar as diferenças fundamentais entre os resultados da programação de Capacidade Finita e a convencional, representada pelos sistemas da categoria MRPII ou Planejamento dos Recursos de Manufatura (Manufacturing Resources Planning). As lógicas dos sistemas MRPII e de Capacidade Finita são discutidas na revisão bibliográfica, enquanto que, para o software empregado no trabalho, ainda há um capítulo específico tratando da sua descrição, fundamentos, software house, hardware necessário e outras informações relevantes. Os ensaios serão implementados com o objetivo de analisar o sistema FCS como ferramenta de planejamento e de programação de produção. No caso, uma fração de um processo produtivo será modelada no sistema, através do qual serão gerados planos de produção que serão confrontados com a programação usual e com o comportamento real dos recursos envolvidos. Os ensaios serão realizados numa das unidades pertencentes a uma empresa transnacional de grande porte, que atua no ramo de pneumáticos. Por último, são apresentadas as conclusões gerais, recomendações na aplicação do sistema estudado e sugestões para futuras pesquisas relacionadas com o assunto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação trata das finanças públicas do Estado do Rio Grande do Sul e apresenta os elementos determinantes que desencadeiam a configuração de um ambiente de crise fiscal. A caracterização do ambiente de crise fiscal no Rio Grande do Sul está relacionada com o esgotamento do padrão de financiamento do Estado implementado nas últimas três décadas tanto por razões políticas como administrativas. O déficit orçamentário é uma constante na história do Estado, o que diferiu, ao longo do tempo, foi a forma de financiamento do mesmo. Durante o período do regime militar, o déficit foi financiado através da contratação de novas operações de crédito, que, no período, foram suficientes para custear o serviço da dívida e proporcionar recursos adicionais para alavancar os investimentos e ampliar a estrutura administrativa do Estado. A partir de 1983 e no decorrer de toda a década de 80, a redução da folha de pagamento, possibilitada pela conjuntura inflacionária, foi a forma de ajuste. De 1991 a 1994, a conjuntura inflacionária foi decisiva para o financiamento do déficit, permitindo tanto a redução das despesas com pessoal como a obtenção de receitas financeiras em valores significativos. De 1995 a 1998, o déficit foi financiado pelo processo de privatização. O ambiente de crise fiscal configura-se nessa conjuntura, na qual se inviabiliza a forma de financiamento até aqui utilizada. A relativa estabilidade econômica não permite a redução, a curto prazo, da folha de pagamento. O custo do endividamento passado consome no presente grande parte de seu orçamento, e o projeto político que venceu as eleições é contra a continuidade das privatizações como paliativo para resolver os problemas de caixa. Logo, o déficit terá que ser financiado de maneira diferente, provavelmente via reorientação dos gastos e aumento de receitas, o que altera também a forma de relação do Estado com os interesses dos diferentes segmentos da sociedade gaúcha.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A meta dessa dissertação foi estudar a possibilidade de contaminação de um solo por hidrocarbonetos e metais pesados associados em zona industrial, estabelecendo uma metodologia de amostragem para avaliação de solos potencialmente contaminados. Para estudo de caso foi selecionada uma refinaria de petróleo localizada em território nacional. Conjuntamente com a metodologia de amostragem, foram estabelecidos como objetivos: a caracterização e avaliação do solo, a identificação dos possíveis “hot spot’s” para servir de subsídios para o monitoramento em investigações mais detalhadas do local e a avaliação da eficiência das barreiras argilosas que compõem os diques dos tanques. Foram investigados os solos que compõem os diques de contenção dos tanques armazenadores de petróleo. As diversas operações realizadas na área são fontes potencias de adição de contaminantes, que ocorrem, normalmente, em pequenas doses e de maneira contínua, pois a fonte nunca é estancada. Foram estabelecidas duas etapas de investigação: uma preliminar, que se consistiu em um levantamento do histórico da área, listando as evidências que pudessem indicar quais locais poderiam ser focos de contaminação A partir dos dados levantados na investigação preliminar foi feito o planejamento de uma campanha de amostragem para a coleta de amostras de solo. Além das análises usuais de caracterização, foram executadas análises de Hidrocarbonetos Totais de Petróleo (TPH Total Petroleum Hydrocarbon) e dos metais cádmio, chumbo, cromo, níquel e mercúrio. Para o enquadramento da área sob o ponto de vista de área contaminada foram utilizados como valores orientadores a “Nova Lista da Holanda” e os “Valores orientadores para solos e águas subterrâneas para o estado de São Paulo”. Dos quatro pontos amostrados, um foi classificado como um “hot spot”, atingindo valores que classificam a área como contaminada. Foi constatado que as barreiras argilosas que compõem os diques de contenção junto aos tanques de armazenamento são ineficientes, ou seja, os hidrocarbonetos estão percolando através dos diques de contenção.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A simulação computacional de processos é uma ferramenta valiosa em diversas etapas da operação de uma planta química, tais como o projeto, a análise operacional, o estudo da estratégia de controle e a otimização, entre outras. Um programa simulador requer, freqüentemente, o cálculo das propriedades termofísicas que fazem parte das equações correspondentes aos balanços de massa, energia e quantidade de movimento. Algumas dessas quantidades, típicas de operações baseadas no equilíbrio de fases (tais como a destilação fracionada e a separação flash), são as fugacidades e entalpias das fases líquida e vapor em equilíbrio. Contudo, o uso de modelos e correlações cada vez mais sofisticadas para representar acuradamente as propriedades termofísicas dos sistemas reais fez com que grande parte do tempo gasto numa simulação de processos seja devida à avaliação destas propriedades. Muitas estratégias têm sido propostas na literaturas a fim de se reduzir a carga computacional envolvida na simulação, estática e dinâmica, dos problemas de Engenharia Química. Esta diminuição do tempo de processamento pode muitas vezes ser determinante na aplicação ou não da simulação de processos na prática industrial, como, por exemplo, no controle automático. Esta dissertação aborda uma das alternativas para a redução do tempo computacional gasto na simulação de processos: a aproximação das funções que descrevem as propriedades termofísicas através de funções mais simples, porém de fácil avaliação. Estas funções, a fim de se garantir uma aproximação adequada, devem ser corrigidas ou atualizadas de alguma forma, visto que se tratam de modelos estritamente válidos em uma pequena região do espaço das variáveis, sendo, por isto, chamados de modelos locais. Partindo-se do estado atual desta técnica, é proposta nesta dissertação uma nova metodologia para se efetuar esta aproximação, através da representação global da propriedade mediante múltiplas funções simples, constituindo, desse modo, uma rede de modelos locais. Algumas possibilidades para a geração efetiva destas redes são também discutidas, e o resultado da metodologia é testado em alguns problemas típicos de separação por equilíbrio de fases.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Dissertação tem como objetivo analisar o Papel do Sistema Financeiro no Desenvolvimento Econômico Regional, no período de 1991 a 2000. No primeiro capítulo se procura caracterizar, de forma geral, o sistema financeiro e, de forma específica, a firma bancária, onde se confrontam a visão convencional e a visão pós-keynesiana, os modelos de financiamento do desenvolvimento econômico e seu papel nesse processo. É analisada, também, a experiência histórica e o modelo de alguns países. No segundo capítulo é abordada a evolução histórica do Sistema Financeiro Nacional, e a forma de como atuam os bancos públicos e privados, em nível nacional e regional. Neste mesmo capítulo, também se procura destacar o papel do sistema financeiro no processo do desenvolvimento econômico e justificar a manutenção das instituições financeiras públicas, para desempenhar a função de agente financiador do crédito, especialmente nas regiões menos desenvolvidas. No terceiro capítulo, é feita uma análise dos agregados monetários correspondente ao volume de depósitos e de crédito, em nível regional, no período de 1991 a 2000, enfatizando a distribuição dos recursos, entre bancos públicos e privados nas cinco regiões brasileiras. Procurou-se, também, comparar essas duas variáveis em relação ao PIB regional. Por fim, na conclusão, sugere-se a criação de mecanismos alternativos de financiamento, como o fomento e os incentivos fiscais.