839 resultados para Fluxo de potência probabilístico
Resumo:
Esta tese propõe o desenvolvimento de um método de estimativa de capacitâncias e de potência consumida nos circuitos combinacionais CMOS, no nível de portas lógicas. O objetivo do método é fazer uma previsão do consumo de potência do circuito na fase de projeto lógico, o que permitirá a aplicação de técnicas de redução de potência ou até alteração do projeto antes da geração do seu leiaute. A potência dinâmica consumida por circuitos CMOS depende dos seguintes parâmetros: tensão de alimentação, freqüência de operação, capacitâncias parasitas e atividades de comutação em cada nodo do circuito. A análise desenvolvida na Tese, propõe que a potência seja dividida em duas componentes. A primeira componente está relacionada ao consumo de potência devido às capacitâncias intrínsecas dos transistores, que por sua vez estão relacionadas às dimensões dos transistores. Estas capacitâncias intrínsecas são concentradas nos nodos externos das portas e manifestam-se em função das combinações dos vetores de entrada. A segunda componente está relacionada às interconexões entre as células do circuito. Para esta etapa utiliza-se a estimativa do comprimento médio das interconexões e as dimensões tecnológicas para estimar o consumo de potência. Este comprimento médio é estimado em função do número de transistores e fanout das várias redes do circuito. Na análise que trata das capacitâncias intrínsecas dos transistores os erros encontrados na estimativa da potência dissipada estão no máximo em torno de 11% quando comparados ao SPICE. Já na estimativa das interconexões a comparação feita entre capacitâncias de interconexões estimadas no nível lógico e capacitâncias de interconexões extraídas do leiaute apresentou erros menores que 10%.
Resumo:
A liberalização da conta capital foi um fato marcante na década de 1990, no Brasil. Este trabalho se propõe a construir um índice baseado em Cardoso e Goldfajn (1997), para estudar, em termos quantitativos, a influência da legislação de controle de capital. Para isso, foi realizado um minucioso trabalho de pesquisa que abordou cerca de 200 principais normativos editados pelo Banco Central e Ministério da Fazenda, que afetaram o fluxo de capital no período 1990 - 2000. Concluímos que esse período foi marcado pela liberalização do fluxo de capital, com alguns subperíodos onde houve restrição, principalmente, à saída de capital. Nosso estudo também confirmou que o diferencial entre a taxa de juros doméstica e externa, o Plano Real, a legislação e os efeitos provocados pelas crises mexicana, asiática e russa foram fatores determinantes para explicar o fluxo de capital total entre 1990 e 2000. Ou seja, os fatores pull, push e efeito contágio foram importantes, conjuntamente, para determinar o fluxode capital total
Resumo:
O trabalho procura mapear e interpretar o processo de formação de caixa decompondo e analisando as atividades que contribuem para liberar ou retirar recursos do fluxo de caixa. Procura também avançar no problema da determinação do nível ótimo de liquidez que deve ser mantido pelas empresas.
Resumo:
O projeto de edificações é um dos processos mais importantes em empreendimentos de construção pelo seu impacto em termos de custo e qualidade do produto final. Entretanto, observam-se muitos problemas relacionados ao gerenciamento inadequado do mesmo, tais como ineficiente comunicação entre os intervenientes, indefinição de responsabilidades e ocorrência de erros em projetos. Muitos destes problemas dizem respeito à sub utilização dos sistemas CAD e tecnologias da informação. O presente trabalho tem como objetivo propor diretrizes e padrões para gestão do fluxo de informações e para produção de desenhos no processo de projeto utilizando recursos computacionais. Busca-se, assim, o aumento da eficiência do uso dos sistemas CAD e tecnologias da informação e também uma maior eficiência nas trocas de informações entre os intervenientes. Para tal, foram realizados dois estudos de caso em empresas construtoras incorporadoras de pequeno porte situadas na Região Metropolitana de Porto Alegre - RS. A partir dos estudos de caso, foram desenvolvidos os seguintes padrões: estrutura de diretórios, back up de arquivos de desenho, nomenclatura de arquivos de desenho, protocolos de envio e recebimento de arquivos ou plantas, controle de versões de plantas ou memoriais descritivos enviados à obra, nomenclatura de layers, layers para integração, diretrizes para produção de desenhos no computador e diretrizes para apresentação de plantas. Além disso, foram identificadas e discutidas novas tendências em termos de aplicação das tecnologias da informação no processo de projeto. No entanto, salienta-se que este trabalho não tem a intenção de quebrar o paradigma atual do processo de projeto, mas sim, contribuir para preparar as empresas construtoras incorporadoras e escritórios de projeto para as tendências futuras de informatização.
Resumo:
Electronic applications are currently developed under the reuse-based paradigm. This design methodology presents several advantages for the reduction of the design complexity, but brings new challenges for the test of the final circuit. The access to embedded cores, the integration of several test methods, and the optimization of the several cost factors are just a few of the several problems that need to be tackled during test planning. Within this context, this thesis proposes two test planning approaches that aim at reducing the test costs of a core-based system by means of hardware reuse and integration of the test planning into the design flow. The first approach considers systems whose cores are connected directly or through a functional bus. The test planning method consists of a comprehensive model that includes the definition of a multi-mode access mechanism inside the chip and a search algorithm for the exploration of the design space. The access mechanism model considers the reuse of functional connections as well as partial test buses, cores transparency, and other bypass modes. The test schedule is defined in conjunction with the access mechanism so that good trade-offs among the costs of pins, area, and test time can be sought. Furthermore, system power constraints are also considered. This expansion of concerns makes it possible an efficient, yet fine-grained search, in the huge design space of a reuse-based environment. Experimental results clearly show the variety of trade-offs that can be explored using the proposed model, and its effectiveness on optimizing the system test plan. Networks-on-chip are likely to become the main communication platform of systemson- chip. Thus, the second approach presented in this work proposes the reuse of the on-chip network for the test of the cores embedded into the systems that use this communication platform. A power-aware test scheduling algorithm aiming at exploiting the network characteristics to minimize the system test time is presented. The reuse strategy is evaluated considering a number of system configurations, such as different positions of the cores in the network, power consumption constraints and number of interfaces with the tester. Experimental results show that the parallelization capability of the network can be exploited to reduce the system test time, whereas area and pin overhead are strongly minimized. In this manuscript, the main problems of the test of core-based systems are firstly identified and the current solutions are discussed. The problems being tackled by this thesis are then listed and the test planning approaches are detailed. Both test planning techniques are validated for the recently released ITC’02 SoC Test Benchmarks, and further compared to other test planning methods of the literature. This comparison confirms the efficiency of the proposed methods.
Resumo:
O novo cenário mundial, marcado pela globalização e atingindo todos os tipos de empresas nos mais variados setores, é descrito como um ambiente de competição muito acirrada, no qual as empresas precisam encontrar soluções cada vez mais rápidas, com precisão e eficiência, entregando um valor maior para seus clientes e melhores retornos para os acionistas. Nesse ambiente, a informação é um fator primordial de diferenciação, sobrevivência e prosperidade para as organizações. Fluxos de informações confiáveis devem ser desenvolvidos, a fim de contribuir para uma melhor qualidade das decisões. O operador de central de atendimento, ou atendente como é conhecido no segmento, é um infomediário e deve ser preparado e treinado para melhor desempenhar o seu papel na coleta de dados e informações. Assim, o objetivo deste trabalho é propor um fluxo que disponibilize informações precisas e confiáveis a respeito dos clientes, a partir de contatos via central de atendimento da Telet, tornando o processo decisório mais ágil e com foco do cliente. Para isso, foram realizadas entrevistas para identificar as carências e as dificuldades de informações disponibilizadas pela Central de Atendimento às áreas clientes da empresa (marketing, planejamento,engenharia e TI), e foi aplicada uma pesquisa com os atendentes, buscando entender os fatores críticos que os levam a não registrar corretamente as demandas dos clientes, bem como o entendimento de seu papel na organização. Da análise dos dados das entrevistas com especialistas das áreas clientes e dos resultados da pesquisa, estruturada e aplicada em uma amostra de atendentes, emergiu a proposta de um novo fluxo de informações que qualifique a tomada de decisão. Constatou-se que não basta apenas a central de atendimento estar preparada, treinada e capacitada, para melhor atender o cliente e coletar dados e informações dos produtos e serviços. Um fluxo de informações estruturado é fundamental para que a informação trafegue até o destino correto, apoiando a tomada de decisão, permitindo a aprendizagem e a geração do conhecimento.
Resumo:
O presente trabalho consiste da realização de um estudo experimental sobre os efeitos das substituições químicas na irreversibilidade magnética e na magnetocondutividade do supercondutor YBa2Cu3O7-δ. Para tanto, o comportamento da linha de irreversibilidade magnética (LIM) bem como dos regimes de flutuações na magnetocondutividade foram pesquisados em amostras policristalinas e moncristalinas de YBa2-xSrxCu3O7-δ (x = 0, 0.1, 0.25, 0.37 e 0.5) e YBa2Cu2.97D0.03O7-δ (D = Zn ou Mg). Além de reduzir drasticamente o valor da temperatura crítica de transição, Tc, os dopantes introduzem um caráter granular nos monocristais. No monocristal puro, o comportamento da LIM é descrito pela lei de potências prevista pelo modelo de "flux creep" gigante para dinâmica de fluxo de Abrikosov convencional. Por outro lado, o comportamento da LIM para as amostras supercondutoras granulares apresenta características própias bastante relevantes. Os dados do limite de irreversibilidade, Tirr(H) seguem a lei de potência ditada pelas teorias de "flux creep" somente em altos campos magnéticos.Na região de baixos campos magnéticos, dois diferentes regimes de dinâmica de fluxo surgem: Nos campos magnéticos mais baixos que 1 kOe, os dados de Tirr(H) seguem uma lei de potência do tipo de Almeida-Thouleess (AT). Perto de 1 kOe, ocorre um "crossover" e em campos magnéticos intermediários passa a ter seu comportamento descrito por uma lei de potências do tipo Gabay-Toulouse (GT). A ocorrência de um comportamento AT-GT na LIM é a assinatura de um sistema frustrado onde a dinâmica de fluxo intergranular ou de Josephson é dominante. Na ausência de teorias específicas para este comportamento em baixos campos, descrevemos o comportamento da LIM de nossos supercondutores granulares, na região de baixo campo, em analogia aos sistemas vidros de spin. No entanto, o comportamento de Tirr(H) na região de altos campos, ocorre de acordo com a teoria de "flux creep" gigante. Particularmente, para valores acima de 20 kOe, a LIM nos monocristais de YBa2-xSrxCu3O7-δ para H // ab, exibe fortes propriedades direcionais para a orientação de H próximo aos planos de maclas (PMCs). Este comportamento é do tipo "cusp", similar ao observado em supercondutores com defeitos colunares, o qual caracteriza uma fase vidro de Bose. Por outro lado, a magnetoresistividade elétrica revela que a transição resistiva dos supercondutores granulares ocorre em duas etapas. Quando a temperatura é decrescida, inicialmente ocorre a transição de pareamento no interior dos grãos. Em temperaturas inferiores, na proximidade do estado de resistência nula, ocorre a transição de coerência, observada pela primeira vez num monocristal. Na transição de coerência, o parâmetro de ordem adquire ordem de longo alcance. Na região de temperaturas imediatamente acima de Tc, nossos resultados de flutuações na magnetocondutividade revelam a ocorrência de regimes críticos e Gaussianos. Abaixo de Tc, na região paracoerente, que antecede à transição de coerência, observaram-se regimes críticos cujo expoente é consistente com o esperado para o modelo 3D-XY com desordem relevante e dinâmica do tipo vidro de spin.
Resumo:
o objetivo deste trabalho foi analisar o Fluxo de Informações entre a CAIXA e os outros órgãos do Governo, na área de Fomento - Habitação e Saneamento, do Setor Público e com aplicação dos recursos do FGTS, e propor soluções que visem melhorar sua eficiência e eficácia, procurando dar maior transparência ao processo. Na realização do trabalho, foram selecionadas para análise as seguintes categorias: Capacidade de Pessoal, Sistema de Informação, Estrutura Organizacional e a questão Habitacional. A análise dos dados tomou possível propor o desenvolvimento de um sistema, que através de um modelo descentralizado, permita o tratamento das informações de forma mais eficiente e eficaz.
Resumo:
Ao mesmo tempo que os ativos intangíveis têm sido amplamente discutidos e apresentados como condutores de sucesso, ainda são poucas as reflexões sobre a influência destes ativos no valor das empresas. Este trabalho surge portanto com o objetivo de identificar uma maneira de se contemplar os ativos intangíveis no valor de uma empresa, quando a mesma é avaliada pelo método de Fluxo de Caixa Descontado. A partir desta metodologia foram analisadas como os intangíveis marca, reputação, redes e alianças estratégicas, tecnologias e processos, capital humano, capital intelectual, inovação, adaptabilidade, cultura organizacional, liderança, responsabilidade socioambiental, e comunicação e transparência podem impactar o valor da empresa, e como eles relacionam-se entre si.
Resumo:
No Brasil, de forma geral, é elevado o custo do capital de terceiros para financiamento das atividades empresariais. Para a gestão financeira das corporações brasileiras, são cruciais o fortalecimento do capital próprio e a obtenção de melhores saldos no fluxo de caixa. Uma importante fonte de financiamento são os recursos gerados na própria empresa. Entre as várias opções para fortalecimento do capital próprio e para melhoria do fluxo de caixa, uma alternativa que pode ser viável, dependendo das variáveis às quais a empresa está submetida, é o uso dos juros sobre o capital próprio, previsto na Lei nº 9.249/1995 e alterações posteriores. Este trabalho tem como objetivo a proposição de um modelo para gestão financeira das empresas, considerando o impacto dos juros sobre o capital próprio na estrutura do capital e no fluxo de caixa da empresa. Objetiva também mensurar os efeitos do uso dos juros sobre o capital próprio no conjunto formado pela empresa e seus investidores. Efetuou-se um diagnóstico das principais variáveis que podem afetar a decisão das empresas de utilizar ou não os juros sobre o capital próprio para remunerar os investidores. Posteriormente, foi elaborado um modelo para avaliação do impacto dos juros sobre o capital próprio na estrutura de capital e no fluxo de caixa da empresa. O modelo foi aplicado em uma empresa hipotética. A aplicação do modelo proposto proporcionou à empresa melhoria na rapidez, qualidade, confiabilidade e flexibilidade das informações, e maior racionalização e transparência nos processos de gestão relacionados à decisão de uso dos juros sobre o capital próprio Os juros sobre o capital próprio são uma opção fiscal à disposição dos gestores da empresa para remunerar os investidores. O valor dos juros remuneratórios do capital deduzido o imposto de renda retido na fonte, pode ser imputado aos dividendos obrigatórios ou utilizado para aumento do capital da empresa. O modelo proposto gera informações a respeito do impacto que o uso da opção fiscal provoca na carga tributária, no capital próprio e no fluxo de caixa da empresa e dos respectivos acionistas. Outras informações do modelo são as possíveis alterações na remuneração, com base no lucro societário, propiciada a debenturistas, empregados, administradores, partes beneficiárias e acionistas. As informações produzidas pelo modelo têm natureza estratégica e permitem aos gestores da empresa tomar decisões com melhor fundamentação.
Resumo:
Neste trabalho, apresentamos uma solução analítica para as equações difusivas unidimensionais da Teoria Geral de Perturbação em uma placa heterogênea, isto é, apresentamos as soluções analíticas para os problemas de autovalor para o fluxo de nêutrons e para o fluxo adjunto de nêutrons, para o cálculo do fator de multiplicação efetivo (keff), para o problema de fonte fixa e para o problema de função auxiliar. Resolvemos todos os problemas mencionados aplicando a Transformada de Laplace em uma placa heterogênea considerando um modelo de dois grupos de energia e realizamos a inversão de Laplace do fluxo transformado analiticamente através da técnica da expansão de Heaviside. Conhecendo o fluxo de nêutrons, exceto pelas constantes de integração, aplicamos as condições de contorno e de interface e resolvemos as equações algébricas homogêneas para o fator de multiplicação efetivo pelo método da bissecção. Obtemos o fluxo de nêutrons através da avaliação das constantes de integração para uma potência prescrita. Exemplificamos a metodologia proposta para uma placa com duas regiões e comparamos os resultados obtidos com os existentes na literatura.
Resumo:
O estudo em questão tem por objetivo atestar a eficácia do modelo do Fluxo de Caixa pelo Método Indireto em comparação ao Fluxo de Caixa Direto e à Demonstração de Origens e aplicações de Recursos, como sendo o instrumento mais recomendado para avaliar e mensurar a capacidade de geração de caixa em relação a um determinado período de tempo. O fundamento teórico foi baseado nos seguintes autores: Matarazzo (1998), Brigham e Houston (1999), Vinagre Brasil e Guimarães Brasil (1992); Sanvicente (1993), Assaf Neto (1991), Falcini (1992), Ross, Westerfild e Jaffe (1995), Hoji (2001), Brigham, Gapenski e Ehrhardt (2001), Campos (1999) e Gitman (2001). Para validar a questão central, foi elaborada uma análise dos dados relativos aos demonstrativos da Petrobrás SI A referentes aos anos de 2001 e 2000, comparando-se os resultados observados no Fluxo de Caixa Indireto com os da Demonstração de Origens e Aplicações de Recursos. A pesquisa conclui que o fluxo de caixa pelo método indireto é um instrumento útil para se avaliar qualitativamente a capacidade de geração de caixa, porém limitado às organizações de maior porte, em função da necessidade de um sistema integrado de planejamento e análise de informações gerenciais, que nem sempre é observado no universo das empresas de menor dimensão.
Resumo:
Diante do aumento da competição no mercado de edificações habitacionais, o paradigma de produção tradicional da construção apresenta limitações, pois resulta em um elevado índice de desperdícios, com altos custos de produção, baixa qualidade e atrasos na entrega dos produtos. A Produção Enxuta, como um paradigma de produção que busca eliminar os desperdícios para que os custos de produção diminuam, a qualidade dos produtos e a rapidez com que são entregues sejam melhores, apresenta-se com potencial de reduzir as ineficiências da construção. As idéias da Produção Enxuta têm sido introduzidas na construção desde 1993, originando a Construção Enxuta. Apesar de estudos demonstrarem bons resultados na introdução dessas idéias na construção, observa-se que tais esforços têm-se voltado mais para uma implementação isolada e pontual, limitando assim a possibilidade de melhorias ao longo do fluxo de valor. Na tentativa de reverter este quadro, o objetivo principal deste trabalho é visualizar o processo produtivo da construção de modo sistêmico, ou seja, do seu fluxo de valor. E assim, identificar os seus principais problemas e desperdícios e propor ações de melhoria, visando uma implementação sistêmica da Produção Enxuta. Para visualização do fluxo de valor utiliza-se a ferramenta chamada Mapeamento do Fluxo de Valor (MFV). Utilizado na manufatura como forma de iniciar a implementação da Produção Enxuta nas empresas, o MFV possibilita uma visualização sistêmica da produção, relacionando o processo produtivo com os clientes e fornecedores, a identificação dos desperdícios e a proposição de melhorias. Devido às diferenças entre construção e manufatura, foram necessárias adequações no MFV para sua aplicação na construção. O estudo foi realizado em uma construtora de edificações habitacionais de Porto Alegre/RS e em função do longo período de construção, a aplicação do MFV ocorreu somente na etapa da alvenaria. A partir da visualização sistêmica da alvenaria foi identificada uma série de problemas e desperdícios e propostas ações de melhorias, almejando a implementação da Produção Enxuta ao longo do fluxo de valor. Entre as melhorias que se mostraram possíveis tem-se a redução do lead time de produção, um processo produtivo mais fluído, a redução dos estoques, o melhor aproveitamento da mão-de-obra e a melhor interação com os diversos agentes que fazem parte da construção como, por exemplo, os clientes, os arquitetos e os fornecedores.