930 resultados para Cargas não-lineares
Resumo:
Resumo O objetivo deste trabalho é explorar a utilização de Redes Neurais no processo de previsão da Captação Líquida do Mercado de Previdência Privada Brasileiro como ferramenta à tomada de decisão e apoio na gestão das empresas do setor. Para a construção desse modelo foram utilizadas Redes Neurais, ferramenta que vem se mostrando adequada para utilização em modelos não lineares com resultados superiores a outras técnicas. A fonte de dados principal para a realização deste trabalho foi a FENAPREVI – Federação Nacional de Previdência Privada e Vida. Para comparação com o modelo de Redes Neurais, foi utilizado um modelo de Regressão Linear Múltipla como benchmark, com o objetivo de evidenciar a adequação da ferramenta em vista dos objetivos traçados no trabalho. O modelo foi construído a partir das informações mensais do setor, entre maio de 2002 e agosto de 2009, considerando o que se convencionou chamar de ‘mercado vivo’, que abrange os produtos PGBL e VGBL, comercializados ininterruptamente nesse período pelas chamadas EAPP – Entidades Abertas de Prividência Privada. Os resultados obtidos demonstraram a adequação da ferramenta Redes Neurais, que obtiveram resultados superiores aos obtidos utilizando Regressão Linear Múltipla.
Resumo:
O objetivo deste trabalho foi mostrar modelagens alternativas à tradicional maneira de se apurar o risco de mercado para ativos financeiros brasileiros. Procurou-se cobrir o máximo possível de fatores de risco existentes no Brasil; para tanto utilizamos as principais proxies para instrumentos de Renda Fixa. Em momentos de volatilidade, o gerenciamento de risco de mercado é bastante criticado por trabalhar dentro de modelagens fundamentadas na distribuição normal. Aqui reside a maior contribuição do VaR e também a maior crítica a ele. Adicionado a isso, temos um mercado caracterizado pela extrema iliquidez no mercado secundário até mesmo em certos tipos de títulos públicos federais. O primeiro passo foi fazer um levantamento da produção acadêmica sobre o tema, seja no Brasil ou no mundo. Para a nossa surpresa, pouco, no nosso país, tem se falado em distribuições estáveis aplicadas ao mercado financeiro, seja em gerenciamento de risco, precificação de opções ou administração de carteiras. Após essa etapa, passamos a seleção das variáveis a serem utilizadas buscando cobrir uma grande parte dos ativos financeiros brasileiros. Assim, deveríamos identificar a presença ou não da condição de normalidade para, aí sim, realizarmos as modelagens das medidas de risco, VaR e ES, para os ativos escolhidos, As condições teóricas e práticas estavam criadas: demanda de mercado (crítica ao método gausiano bastante difundido), ampla cobertura de ativos (apesar do eventual questionamento da liquidez), experiência acadêmica e conhecimento internacional (por meio de detalhado e criterioso estudo da produção sobre o tema nos principais meios). Analisou-se, desta forma, quatro principais abordagens para o cálculo de medidas de risco sendo elas coerentes (ES) ou não (VaR). É importante mencionar que se trata de um trabalho que poderá servir de insumo inicial para trabalhos mais grandiosos, por exemplo, aqueles que incorporarem vários ativos dentro de uma carteira de riscos lineares ou, até mesmo, para ativos que apresentem risco não-direcionais.
Análise do processo de negociação de tarifas de transporte através da utilização da teoria dos jogos
Resumo:
O objetivo deste trabalho é apresentar uma visão diferenciada sobre um dos processos que compõe a fase de distribuição da cadeia de suprimentos: a negociação de tarifas de transportes. É possível analisar o desenvolvimento de um processo de negociação de tarifas de transporte expresso através da linguagem da teoria dos jogos. Na seqüência, um caso real de negociação e precificação de tarifas demonstra a aplicação prática do modelo utilizado. A aplicação da teoria dos jogos leva a resultados que demonstram os fatores que mais influenciam na negociação e formação dos preços das tarifas. O setor de logística tem crescido no Brasil e sua importância é cada vez maior dentro das organizações. Deste modo, prover ferramentas que tornem os agentes envolvidos nos processos de negociação mais racionais, com o uso da teoria econômica, pode ser um grande diferencial na agenda das organizações. As conclusões do trabalho alinham-se com as tendências observadas nas cadeias de suprimento, mais especificamente na logística de distribuição das organizações. A evolução do grau de preparo e profissionalismo dos operadores logísticos vai exigir que o processo de contratação e gestão de relacionamento com esses fornecedores seja mais sofisticada e efetivo por parte das empresas contratantes. Além disso, os processos tradicionais de compra e contratação de serviços logísticos podem não ser suficientes para maximizar os resultados das organizações através de redução de custos operacionais e elevação do nível de serviço ao cliente final (ambos diretamente relacionados à logistica de distribuição).
Resumo:
A manipulação neonatal imprime alterações no desenvolvimento neuroendócrino, morfológico e comportamental de ratos. A área pré-óptica medial (MPOA) contém neurônios produtores do hormônio liberador do hormônio luteinizante (LHRH) que estão intimamente relacionados com a reprodução. Os núcleos periventricular anteroventral (AVPV) e a amígdala medial póstero-dorsal (MePD) são áreas do sistema nervoso central (SNC) que apresentam receptores de estrógeno, portanto poderiam estar atuando no feedback das gonadotrofinas. O objetivo deste trabalho foi verificar os efeitos da manipulação neonatal sobre o volume do núcleo, a densidade de células, o diâmetro do corpo celular de neurônios e o número total estimado de neurônios da MePD e AVPV dos lados direito e esquerdo, em ratas aos 11 e 90 dias de idade. Na MPOA, foram avaliadas a densidade de células e o diâmetro do corpo celular de neurônios. A MPOA apresentou uma redução da densidade numérica de 50% em ratas manipuladas de 11 dias e 50% em ratas manipuladas aos 90 dias de idade. A manipulação neonatal provocou alterações nos parâmetros analisados nas três áreas estudadas, quando comparadas aos grupos não manipulados. Na MePD a redução foi 63% e de 47% respectivamente aos 11 e aos 90 dias de idade. No AVPV a redução foi de 44% e de 54% aos 11 e 90 dias de idade. As dimensões lineares do soma dos neurônios da MePD e MPOA apresentaram uma redução de tal forma que o diâmetro dos neurônios no grupo manipulado foi significativamente menor do que o grupo não manipulado. Mas as dimensões lineares dos neurônios do AVPV não apresentaram alterações significativas. A manipulação neonatal por uma causa ainda desconhecida induz a alterações estáveis na MPOA, MePD e AVPV. A diminuição do número de neurônios nessas estruturas pode explicar a redução da atividade do eixo hipotálamo-hipófise-gonadal (HPG) em ratas adultas, manipuladas no período neonatal.
Resumo:
Este trabalho apresenta o desenvolvimento de uma ferramenta computacional de apoio ao diagnóstico através de imagens ecocardiográficas, denominada de “Echo Offline”. O “Echo Offline” foi projetado para mensuração de grandezas lineares em imagens ecocardiográficas digitais, possibilitando a realização de diagnósticos pós-exame e a integração dos dados colhidos no banco de dados da instituição médica. Um estudo transversal contemporâneo e aleatório foi realizado com uma população de quarenta e nove pacientes submetidos a exames ecocardiográficos, as imagens resultantes deste exame foram digitalizadas e um médico especialista mensurou um conjunto de variáveis pré-definidas utilizando o método convencional, ou seja, usando as facilidades oferecidas pelo equipamento de ultra-som comercial. Um segundo médico especialista produziu outros dois conjuntos de dados utilizando o “Echo offline” e desta forma foi possível avaliar a exatidão e a repetibilidade das medidas realizadas pela ferramenta “Echo offline”. O “Echo offline” apresentou uma elevada concordância com o método convencional e apresentou significativa redução no tempo de realização das medidas.
Resumo:
A presente dissertação versa sobre a sincronização idêntica em redes de osciladores caóticos. Uma perspectiva razoavelmente histórica sobre a literatura da área é apresentada . O conceito de caos é introduzido junto com outras idéias da dinâmica não-linear: sistemas dinâmicos, exemplos de sistemas, atratores, expoentes de Liapunov, etc. A integração numérica de equações diferenciais é largamente utilizada, principalmente, para o cálculo de expoentes e o desenho do diagrama de fases. A sincronização idêntica é definida, inicialmente, em redes que não passam de um par de osciladores. A variedade de sincronização (conjunto de pontos no espaço de fases no qual a solução do sistema é encontrada se há sincronização) é determinada. Diferentes variantes de acoplamentos lineares são enfocadas: acoplamento interno, externo, do tipo mestre-escravo e birecional, entre outras. Para detectar sincronização, usa-se o conceito de expoente de Liapunov transversal, uma extensão do conceito clássico de expoente de Liapunov que caracteriza a sincronização como a existência de um atrator na variedade de sincronização. A exposição é completada com exemplos e atinge relativo detalhe sobre o assunto, sem deixar de ser sintética com relação à ampla literatura existente. Um caso de sincronização em antifase que usa a mesma análise é incluído. A sincronização idêntica também é estudada em redes de osciladores idênticos com mais de dois osciladores. As possibilidades de sincronização completa e parcial são explanadas. As técnicas usadas para um par de osciladores são expandidas para cobrir este novo tipo de redes. A existência de variedades de sincronização invariantes é considerada como fator determinante para a sincronização. A sincronização parcial gera estruturas espaciais, analisadas sob a denominação de padrões. Algumas relações importantes entre as sincronizações são explicitadas, principalmente as degenerescências e a relação entre a sincronização parcial e a sincronização completa do respectivo estado sincronizado para alguns tipos de acoplamento. Ainda são objetos de interesse as redes formadas por grupos de osciladores idênticos que são diferentes dos osciladores dos outros grupos. A sincronização parcial na qual todos os grupos de osciladores têm seus elementos sincronizados é chamada de sincronização primária. A sincronização secundária é qualquer outro tipo de sincronização parcial. Ambas são exemplificadas e analisadas por meio dos expoentes transversais e novamente por meio da existência de invariantes de sincronização. Obtém-se, então, uma caracterização suficientemente ampla, completada por casos específicos.
Resumo:
A presente dissertação tem como objetivo estudar e aprimorar métodos de projetos de controladores para sistemas de potência, sendo que esse trabalho trata da estabilidade dinâmica de sistemas de potência e, portanto, do projeto de controladores amortecedores de oscilações eletromecânicas para esses sistemas. A escolha dos métodos aqui estudados foi orientada pelos requisitos que um estabilizador de sistemas de potência (ESP) deve ter, que são robustez, descentralização e coordenação. Sendo que alguns deles tiveram suas características aprimoradas para atender a esses requisitos. A abordagem dos métodos estudados foi restringida à análise no domínio tempo, pois a abordagem temporal facilita a modelagem das incertezas paramétricas, para atender ao requisito da robustez, e também permite a formulação do controle descentralizado de maneira simples. Além disso, a abordagem temporal permite a formulação do problema de projeto utilizando desigualdades matriciais lineares (LMI’s), as quais possuem como vantagem o fato do conjunto solução ser sempre convexo e a existência de algoritmos eficientes para o cálculo de sua solução. De fato, existem diversos pacotes computacionais desenvolvidos no mercado para o cálculo da solução de um problema de inequações matriciais lineares. Por esse motivo, os métodos de projeto para controladores de saída buscam sempre colocar o problema na forma de LMI’s, tendo em vista que ela garante a obtenção de solução, caso essa solução exista.
Resumo:
A maioria dos métodos de síntese e sintonia de controladores, bem como métodos de otimização e análise de processos necessitam de um modelo do processo em estudo. A identificação de processos é portanto uma área de grande importância para a engenharia em geral pois permite a obtenção de modelos empíricos dos processos com que nos deparamos de uma forma simples e rápida. Mesmo não utilizando leis da natureza, os modelos empíricos são úteis pois descrevem o comportamento específico de determinado processo. Com o rápido desenvolvimento dos computadores digitais e sua larga aplicação nos sistemas de controle em geral, a identificação de modelos discretos foi amplamente desenvolvida e empregada, entretanto, modelos discretos não são de fácil interpretação como os modelos contínuos pois a maioria dos sistema com que lidamos são de representação contínua. A identificação de modelos contínuos é portanto útil na medida que gera modelos de compreensão mais simples. A presente dissertação estuda a identificação de modelos lineares contínuos a partir de dados amostrados discretamente. O método estudado é o chamado método dos momentos de Poisson. Este método se baseia em uma transformação linear que quando aplicada a uma equação diferencial ordinária linear a transforma em uma equação algébrica evitando com isso a necessidade do cálculo das derivadas do sinais de entrada e saída Além da análise detalhada desse método, onde demonstramos o efeito de cada parâmetro do método de Poisson sobre o desempenho desse, foi realizado também um estudo dos problemas decorrentes da discretização de sinais contínuos, como por exemplo o efeito aliasing decorrente da utilização de tempos de amostragem muito grandes e de problemas numéricos da identificação de modelos discretos utilizando dados com tempos de amostragem muito pequenos de forma a destacar as vantagens da identificação contínua sobre a identificação discreta Também foi estudado um método para compensar a presença de offsets nos sinais de entrada e saída, método esse inédito quando se trata do método dos momentos de Poisson. Esse trabalho também comprova a equivalência entre o método dos momentos de Poisson e uma metodologia apresentada por Rolf Johansson em um artigo de 1994. Na parte final desse trabalho são apresentados métodos para a compensação de erros de modelagem devido à presença de ruído e distúrbios não medidos nos dados utilizados na identificação. Esses métodos permitem que o método dos momentos de Poisson concorra com os métodos de identificação discretos normalmente empregados como por exemplo ARMAX e Box-Jenkins.
Resumo:
Neste trabalho são descritos estudos comparativos de reações de oligomerização do etileno utilizando complexos do tipo: Ni-[P^O] e Ni-[Diimina] (na presença de MAO como cocatalisador). A pesquisa foi realizada com o objetivo de verificar e comparar o comportamento dos dois complexos em estudo, quando estes passam do meio homogêneo para o meio bifásico (na presença de um líquido iônico). O líquido iônico utilizado é o tetrafluorborato de 1-butil-3-metilimidazol. Foram avaliados parâmetros reacionais como pressão, temperatura, tempo de reação, velocidade de agitação e volume de líquido iônico para o catalisador Ni-[P^O] nos meios homogêneo e bifásico. Para o precursor Ni-[Diimina], os parâmetros avaliados foram pressão e temperatura nos dois meios. Os produtos obtidos são olefinas lineares e ramificadas, principalmente α-olefinas; com faixa de distribuição de C4 a C20 (Distribuição Shulz-Flowry). As atividades obtidas nos ciclos de reações variam entre 21 h-1 a 32.772 h-1, e os resultados são interpretados envolvendo os mecanismos de reação. Devido as diferenças existentes entre nos complexos em estudo, verifica-se diferentes atividades e diferentes faixas de produtos oligoméricos. O comportamento obtido para cada complexo depende diretamente dos parâmetros reacionais utilizados, além do meio ao qual foram submetidos durante as reações.
Resumo:
A história de Porto Alegre está intimamente ligada ao Rio Guaíba e seu porto. Desde o início a cidade cresceu e se desenvolveu devido a sua função portuária, fazendo com que ocupasse local de destaque na econômia riograndense, fato determinante para tornar-se capital do estado. No princípio a atividade portuária se dava através de trapiches na antiga Rua da Praia (Atual Rua dos Andradas), posteriormente surgiram o Mercado Público e as docas. Apesar de estar em operação desde 1916, o porto foi oficialmente inaugurado em 1º de agosto de 1921, tornando-se o principal meio de transporte de cargas até a década de 1960, quando surgem os mega portos como o de Rio Grande, o desenvolvimento do transporte rodoviário e o descaso das políticas públicas atingem a produtividade do porto da capital. Somam-se a isso problemas estruturais característicos dos portos antigos, como a falta de retroárea para movimentação de cargas e containeres. Porém este é um perfil comum em diversos portos da virada do século XX, que pouco a pouco tornaram-se obseletos. Impulsionados por diversas reciclagens portuárias de sucesso ao redor do mundo, como Barcelona, Puerto Madero e Boston, arquitetos e urbanistas gaúchos começam a prever novos usos para o cais de Porto Alegre. Este movimento que, num primeiro momento, representava um desejo, aos poucos vai se consolidando através de propostas efetivas prevendo novos usos para o Cais Mauá O primeiro projeto de reciclagem portuária para o Cais Mauá data de 1988, o “Projeto Cais do Porto”, do então Secretário do Planejamento Newton Baggio; secederam-se então propostas para ocupar o cais com tráfego de ônibus; foram realizados dois concursos de arquitetura o “Muro da Mauá” e o “Porto dos Casais”, o mais polêmico dos projetos, que previa a reciclagem de todo o Cais. O objetivo da dissertação é realizar um levantamento histórico da evolução urbana da cidade para melhor compreender a relação do porto com a cidade, assim como o levantamento de todo processo de percepção de novas possibilidades para o Porto de Porto Alegre e dos principais projetos para a área buscando elucidar porque a tanto tempo tanto se propõe e nada se concretiza, ou seja, como chegamos na situação atual de engessamento mútuo entre o Porto e o Centro da cidade, pois enquanto não se toma uma posição, nem o porto recebe investimentos para a modernização das atividades portuárias e nem a cidade pode se apropriar de suas instalações para uma obra de reciclagem portuária.
Resumo:
Este trabalho discute a racionalidade econômica para o desenvolvimento de um sistema de metas sociais como forma de o governo federal aumentar a eficiência na utilização dos recursos sociais transferidos para os municípios. O trabalho desenvolve algumas extensões do modelo de agente-principal incluindo abordagens estáticas com e sem informação imperfeita e abordagens dinâmicas com contratos perfeitos e imperfeitos. Os resultados dos modelos estáticos indicam que o uso de critérios usuais de focalização onde localidades mais pobres recebem mais recursos pode levar a incentivos adversos para a erradicação da pobreza. Nós também mostramos que transferências incondicionais do governo federal deslocam gastos sociais locais. O trabalho argumenta em favor do uso de contratos onde quanto maior for a melhora no indicador social escolhido, mais recursos o município receberia. A introdução de informação imperfeita neste modelo basicamente gera uma penalidade aos segmentos pobres de áreas onde os governos demonstram ser menos avessos a pobreza. O trabalho também aborda o problema de favoritismo político onde determinados grupos sociais têm maior, ou menor, atenção por parte de governos locais. O resultado é que as políticas sociais acabam privilegiando determinados setores em detrimento de outros. Com o estabelecimento de metas sociais é possível, se não eliminar o problema, ao menos criar incentivos corretos para que os gastos sociais sejam distribuídos de forma mais equânime. Também desenvolvemos modelos dinâmicos com diferentes possibilidades de renegociação ao longo do tempo. Demonstramos que a melhor forma de aumentar a eficiência alocativa dos fundos seria criar mecanismos institucionais garantindo a impossibilidade de renegociações bilaterais. Esse contrato ótimo reproduz a seqüência de metas e transferências de vários períodos encontrada na solução do modelo estático. Entretanto, esse resultado- desaparece quando incorporamos contratos incompletos. Nesse caso, as ineficiências ex-ante criadas pela possibilidade de renegociação devem ser comparadas com as ineficiências ex-post criadas por não se usar a informação nova revelada ao longo do processo. Finalmente, introduzimos a possibilidade do resultado social observado depender não só do investimento realizado, mas também da presença de choques. Nesse caso, tanto o governo quanto o município aumentam as suas metas de investimento na área social. Contratos lineares na presença de choques negativos fazem com que os municípios recebem menos recursos justamente em situações adversas. Para contornar esse problema, mostramos a importância da utilização de contratos com comparação de performance.
Resumo:
nRPN, nRPNSTAT e nRPNDYN são novos índices, propostos nesta dissertação, que quantificam o grau de não-linearidade total, estática e dinâmica, respectivamente, de sistemas dinâmicos não- lineares. Estes novos índices permitem responder se é necessária a utilização de controladores não-lineares ou se simples controladores lineares apresentarão desempenho satisfatório. Além disso, se um controlador não- linear se fizer necessário, quais características este deve apresentar. Nesta dissertação é realizado um estudo acerca das metodologias para determinação do grau de não- linearidade de plant as industriais. Entre as encontradas, a que apresenta as melhores potencialidades é estudada em detalhes, tendo seus atributos e deficiências explorados. As deficiências foram sanadas e um novo conjunto de índices é proposto (nRPN, nRPNSTAT e nRPNDYN), o qual, além de apresentar resultados conclusivos em termos quantitativos, também traz novas informações valiosas para a escolha do controlador adequado, como a parcela estática e dinâmica da não- linearidade. A metodologia proposta é aplicada e testada em um conjunto bastante amplo e complementar de possíveis sistemas dinâmicos não-lineares (tais como: pH, reatores químicos e coluna de destilação de alta pureza) onde o comportamento nãolinear já foi explorado na literatura O desenvolvimento e o estudo do comportamento dinâmico de uma planta laboratorial de cinco tanques acoplados são apresentados. Este sistema possui dinâmica e ganhos variáveis, descontinuidades, inversão no sinal do ganho multivariável e diferentes graus de acoplamento, ilustrando de forma simples vários possíveis comportamentos dinâmicos encontrados em plantas industriais. Devido a esta grande versatilidade a planta foi construída e testada, confirmando os comportamentos previstos nos estudos teóricos.
Resumo:
A identificação de modelos é determinante no sucesso das modernas técnicas de controle avançado de processos. Um modelo para o sistema pode ser obtido através de modelagem rigorosa, baseada em equações governantes do sistema ou através da modelagem empírica e estimação de parâmetros. Embora mais rápida e fácil, a modelagem empírica necessita de alguns testes de identificação nos quais as variáveis manipuladas são variadas de modo que resultem em variações nas variáveis controladas. Os testes de identificação podem apresentar custos muito elevados tendo em vista que o sistema pode sair de seu ponto normal de operação, gerando produtos com folga de especificação. Este fato ocorre porque usualmente as perturbações aplicadas nas variáveis manipuladas nas indústrias de processos são independentes umas das outras, aumentando a duração do teste de identificação. Desta forma, neste trabalho foi desenvolvida uma nova metodologia de projeto de perturbações simultâneas para a identificação de modelos dinâmicos baseada na direcionalidade do sistema, com o objetivo de fornecer dados mais ricos para se capturar corretamente o comportamento multivariável do sistema e manter o processo no ponto de operação normal. As perturbações são projetadas conforme as características de um modelo simplificado do processo, ou pré-modelo. Este modelo inicial é obtido essencialmente de dados históricos de planta, selecionados através de uma sistemática análise de correlação desenvolvida neste trabalho A metodologia proposta é composta de duas partes: a primeira parte diz respeito à análise dos dados históricos de planta para obtenção de informações prelimirares as quais são utilizadas no planejamento de perturbações, tais como amplitude do ruído de medida, correlação entre as variáveis de processo, constante de tempo do sistema e matriz de ganhos. E a segunda parte consiste no cálculo da amplitude das perturbações baseado nos resultados da primeira etapa do planejamento. Para sistemas mal-condicionados verificou-se que as perturbações planejadas pela metodologia removem menos a planta de seu ponto de operação gerando resultados mais consistentes em relação às perturbações tradicionais. Já para sistemas bem-condicionados, os resultados são semelhantes. A metodologia foi aplicada em uma unidade piloto experimental e numa unidade de destilação da PETROBRAS, cujos resultados apontam pouca remoção dos sistemas do ponto de operação e modelos consistentes. A validação dos modelos também foi contemplada na dissertação, uma vez que foi proposto um novo critério de validação que considera a derivada dos dados de planta e a do modelo e não apenas os dados de planta e os dados da simulação das saídas do modelo.
Resumo:
Não é tarefa fácil abordar um tema como o de tributos, principalmente em um país como o Brasil, com grandes e históricas dívidas sociais, que permanece com uma das cargas tributárias mais elevadas do Mundo e com uma qualidade na oferta de serviços públicos que, na maioria das vezes, deixa a desejar. Pior ainda é discutir a eficácia do papel do Auditor Fiscal, já que temos a missão de prover o Estado de recursos públicos para a implementação e manutenção de políticas necessárias para a sociedade. Nem sempre para cumprir esse papel conta-se com o apoio integral da classe política e da população. Para compensar tal desafio, a maior motivação e certeza é que há na Secretaria da Fazenda do Estado de Pernambuco verdadeiros empreendedores com capacidade técnica e vontade de mudar algumas realidades, já não tão sintonizadas com os desafios dos tempos modernos. Partindo da premissa que a introdução do Planejamento, por meio da criação da Diretoria de Planejamento e Controle da Ação Fiscal no início de 2002 na estrutura organizacional da Administração Tributária, resultou em um salto de qualidade no resultado da ação fiscal, esse estudo apresenta uma avaliação dos processos fiscais comparando-se a partir de 1998 até o início de 2002 e daí até o ano de 2006. Percebe-se que não houve incremento em relação à efetividade da ação fiscal, constatando-se correlação estatística entre os valores recuperados pelo Fisco quando comparados o período posterior à mudança organizacional com o anterior, verificado pelo Teste de Wilcoxon. Ao mesmo tempo, percebeu-se uma necessidade clara do Estado rever suas leis, prazos e condições de trabalho no que se refere à execução fiscal, sob pena de não conseguir reaver parcela de tributo sonegado em tempo hábil, já que 84,9% dos processos não tiveram suas defesas administrativas apresentadas ou saldos devedores regularizados. Na pesquisa dirigida aos gerentes da Diretoria de Planejamento, suas respostas indicam que o caminho precisa ser mantido, buscando contínua evolução e coerência do planejamento estratégico e permanente aperfeiçoamento do modelo de gestão adotado em busca de resultados, com sensibilidade social e respeito profissional a cada integrante do Órgão.
Resumo:
With the ever increasing demands for high complexity consumer electronic products, market pressures demand faster product development and lower cost. SoCbased design can provide the required design flexibility and speed by allowing the use of IP cores. However, testing costs in the SoC environment can reach a substantial percent of the total production cost. Analog testing costs may dominate the total test cost, as testing of analog circuits usually require functional verification of the circuit and special testing procedures. For RF analog circuits commonly used in wireless applications, testing is further complicated because of the high frequencies involved. In summary, reducing analog test cost is of major importance in the electronic industry today. BIST techniques for analog circuits, though potentially able to solve the analog test cost problem, have some limitations. Some techniques are circuit dependent, requiring reconfiguration of the circuit being tested, and are generally not usable in RF circuits. In the SoC environment, as processing and memory resources are available, they could be used in the test. However, the overhead for adding additional AD and DA converters may be too costly for most systems, and analog routing of signals may not be feasible and may introduce signal distortion. In this work a simple and low cost digitizer is used instead of an ADC in order to enable analog testing strategies to be implemented in a SoC environment. Thanks to the low analog area overhead of the converter, multiple analog test points can be observed and specific analog test strategies can be enabled. As the digitizer is always connected to the analog test point, it is not necessary to include muxes and switches that would degrade the signal path. For RF analog circuits, this is specially useful, as the circuit impedance is fixed and the influence of the digitizer can be accounted for in the design phase. Thanks to the simplicity of the converter, it is able to reach higher frequencies, and enables the implementation of low cost RF test strategies. The digitizer has been applied successfully in the testing of both low frequency and RF analog circuits. Also, as testing is based on frequency-domain characteristics, nonlinear characteristics like intermodulation products can also be evaluated. Specifically, practical results were obtained for prototyped base band filters and a 100MHz mixer. The application of the converter for noise figure evaluation was also addressed, and experimental results for low frequency amplifiers using conventional opamps were obtained. The proposed method is able to enhance the testability of current mixed-signal designs, being suitable for the SoC environment used in many industrial products nowadays.