974 resultados para Modelo estatístico


Relevância:

60.00% 60.00%

Publicador:

Resumo:

As cartas de controle estatístico têm sido utilizadas com sucesso no monitoramento do desempenho de processos industriais. Diversas modificações nas cartas tradicionais de Shewhart vêm sendo propostas na literatura. Tais modificações visam adaptar as cartas de controle ao monitoramento de processos com características especiais; entre elas, destacam-se as cartas de controle adaptativas. As cartas são ditas adaptativas quando pelo menos um de seus parâmetros (tamanho de amostra, intervalo de amostragem e coeficiente dos limites de controle) pode variar durante o monitoramento do processo. A determinação dos valores dos parâmetros das cartas de controle pode considerar aspectos estatísticos, econômicos ou uma combinação de ambos. Os modelos estatístico-econômicos consideram, além de indicadores de desempenho estatístico, os custos associados ao controle. A implementação de cartas adaptativas baseadas neste tipo de modelo, devido a sua complexidade, é melhor conduzida por meio de uma metodologia de planejamento. Neste trabalho, após uma revisão da literatura sobre cartas tradicionais e adaptativas, incluindo o projeto econômico das mesmas, propõe-se uma metodologia para o planejamento da implementação de cartas adaptativas de controle para monitorar processos onde cartas de controle tradicionais estão sendo utilizadas A metodologia é composta de cinco passos gerais, detalhados na dissertação, e foi elaborada a partir de um estudo de caso em uma indústria do setor automotivo, no qual se utilizou um modelo estatístico-econômico. No estudo de caso, o significado e a forma de determinação dos parâmetros do modelo econômico são detalhados. Os resultados do estudo de caso são comparados quanto aos custos operacionais para as cartas adaptativas e tradicionais de controle de processo. Os resultados obtidos indicaram ser preferível o uso de cartas adaptativas ao uso de cartas tradicionais para monitorar o processo estudado, principalmente no caso de pequenas variações na média da característica de qualidade monitorada. Embora de natureza genérica, a metodologia proposta pode ser facilmente adaptada para contemplar diferentes aplicações industriais.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

As proteínas vegetais vêm sendo largamente utilizadas na indústria alimentícia como substitutas da proteína animal, além de agir como um ingrediente funcional nos mais variados produtos. Dentre as proteínas mais utilizadas encontra-se a proteína texturizada de soja. Seu processamento envolve uma etapa de secagem que é uma das operações unitárias mais relevantes e desafiadoras para a indústria alimentícia. Neste trabalho, determinaram-se as curvas de secagem de três diferentes tipos de proteína texturizada de soja (PTS), através de diferentes experimentos, variando-se a temperatura do ar de secagem (T) – 90, 110 e 130°C – a velocidade do ar de secagem (v) – 100, 125 e 150 cm.s-1 – e a altura da camada de produto (h) – 3 e 6 cm para a PTS Tipo I, 2,5 e 5 cm para a PTS Tipo II e 5 e 10 cm para a PTS Tipo III. A partir dos dados experimentais obtidos de teor de umidade em função do tempo, fez-se o ajuste a um modelo exponencial de duas constantes. Todas as combinações de parâmetros apresentaram ajustes de boa qualidade, cujos coeficientes de correlação foram superiores a 0,99. Uma das constantes obtidas (C1) apresentou valores muito próximos à unidade para todos os casos (e para os três tipos de PTS), enquanto que a outra constante (C2) apresentou valores variáveis. Realizouse, então, uma análise estatística (Teste F), a fim de verificar quais dos parâmetros estudados (bem como seus efeitos de interação) eram significativos para a determinação da constante C2 do modelo exponencial. Para as PTS tipos I e II, a um nível de 95% de significância, todos os parâmetros e efeitos de interação apresentaram-se significativos para a determinação de C2 e desenvolveu-se, então, um modelo estatístico de dez constantes em função destes Obteve-se um ótimo ajuste dos dados de C2 em função dos parâmetros aos modelos testados, atingindo-se valores de erro médio relativo (EMR) sempre inferiores a 10% e coeficientes de correlação elevados. Para a PTS Tipo III apenas dois dos parâmetros testados, somados a dois efeitos de interação, mostraram-se significativos. Apesar disso, foram obtidos os melhores ajustes através, novamente, do modelo de 10 constantes. Assim, para os três tipos de PTS, foi possível a obtenção de um modelo que prevê o tempo de processo de cada tipo de PTS, para que se atinja uma determinada umidade final, ou vice-versa, em função da umidade inicial da amostra, de sua umidade de equilíbrio e dos parâmetros de processo (T, v e h). Paralelamente, determinaram-se as isotermas de sorção de dois tipos de PTS (um contendo cerca de 20% de açúcares e outro não contendo açúcares) para quatro temperaturas (10, 20, 30 e 40°C). Para o ajuste dos dados experimentais foram utilizados os modelos de Oswin, Halsey, BET, GAB, Peleg e Darcy-Watt. Os modelos de Peleg e GAB foram os que melhor se ajustaram aos dados experimentais, embora outros modelos como Halsey e Oswin também se mostraram representativos para temperaturas mais elevadas. As isotermas de sorção da PTS que continha açúcar apresentaram uma inversão de comportamento em uma atividade de água em torno de 0,9, enquanto que as curvas obtidas para a outra PTS não se cruzaram em nenhum momento. O calor de sorção foi estimado, pela equação de Clausius-Clapeyron, para ambos os tipos de PTS e este aumentou com a diminuição de umidade. Estimaram-se valores de umidade de monocamada, através do ajuste dos dados ao modelo de GAB, entre 4,6 e 7,4% para a PTS Tipo I e entre 4,4 e 5,4% para a PTS Tipo IV; os valores de umidade de monocamada diminuíram com o aumento de temperatura.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta tese trata de um tema fundamental na sociedade moderna: gestão escolar. O objetivo deste trabalho é contribuir com o gestor, ou a gestora, de Instituições de Ensino Superior de tal forma que ele, ou ela, tenha uma orientação calcada em resultados científicos sobre que ações e medidas devem ser tomadas para melhorar o desempenho de seus formandos em exames padronizados como o Exame Nacional de Cursos (ENC), também conhecido como Provão. Com base em uma extensa pesquisa de modelos de desempenho escolar, foi desenvolvido um modelo conceitual estimável pela técnica dos Modelos Lineares Hierárquicos. A seguir, o modelo estatístico foi ajustado utilizando-se os dados de desempenho escolar dos formandos do curso de Administração de Empresas que realizaram o de 2003. Com base nos resultados obtidos, procurou-se sugerir aos gestores escolares ações. Dessa forma, procurou-se preencher dois objetivos no início deste trabalho: (1) identificar variáveis que ajudem a explicar o desempenho de formandos nos cursos de graduação em Administração de Empresas em exames nacionais como o Provão e o ENADE e (2) oferecer insumos aos gestores de IES de Administração de Empresas sobre como seria possível gerenciar aquelas variáveis que estejam dentro do controle da instituição. Três variáveis, em especial, tiveram um efeito acentuado sobre o desempenho escolar no Provão: fluência na língua inglesa, freqüência de uso de computadores e avaliação que os respondentes fazem das competências a que foram expostos durante o curso superior. Porém, duas dificuldades de medição associadas a esses resultados devem ser consideradas. Em primeiro lugar, a fluência em inglês e o uso de computadores incorporam, em seu efeito, o efeito de variáveis latentes não incorporadas neste estudo. Dessa forma, a origem do efeito dessas duas variáveis não pode ser totalmente esclarecida e o gestor deve tomar diversas ações a fim de cobrir diversas possibilidades distintas. Em segundo lugar, está o fato de que a avaliação que se faz das competências é baseada na percepção de cada aluno e não em medidas intrínsecas de competências desenvolvidas ao longo do curso. Portanto, parte-se da premissa de que os alunos, em média, avaliam, corretamente, as competências que seus cursos os ajudaram a desenvolver. Nas limitações a este estudo, destacaram-se a unidimensionalidade do construto de eficácia escolar e o fato de que a variável utilizada considera o desempenho bruto dos alunos, não sendo uma medida de valor agregado. Além disso, mencionou-se, como limitação, a impossibilidade de se precisar a origem dos efeitos da fluência em inglês e do uso de computadores. Finalmente, as oportunidades de pesquisas futuras tratam de quatro áreas de pesquisas possíveis: (1) estudos comparativos com os resultados de cursos superiores em outras áreas; (2) estudos longitudinais; (3) ampliação do construto eficácia escolar e (4) construção de escalas e indicadores. Cada uma dessas áreas de pesquisa auxiliariam na superação das limitações encontradas no desenvolvimento deste trabalho.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A ética, nos dias de hoje, ocupa um lugar primordial no campo organizacional, como também em toda a sociedade. A primeira metade do século XX se caracterizou, de certa forma, por um período em que predominou a abordagem mecanicista. A máquina, como foco de atenções, parecia se sobrepor ao ser humano. Na segunda metade do século XX o empregado passou a ser valorizado enquanto pessoa. Isso fortaleceu a abordagem psico-sociológica. Uma das questões que se coloca é: como as organizações podem transcender a mera produção de bens e serviços e a geração de valor econômico, e como harmonizar os interesses das empresas, da sociedade e das pessoas? A resposta a esses questionamentos passa por se considerar, de maneira incisiva, o homem no ambiente profissional, sua postura ética, e os fatores que dominam a sua relação com a empresa que o emprega. Esta tese tem como objetivos proporcionar uma visão da problemática do desvio de conduta na organização, mostrar quais são os seus fatores determinantes, e de que maneira tais fatores operam na incidência do desvio de conduta. O espaço de análise considerado foram empresas industriais localizadas na região do Médio Vale do Paraíba, no Estado de São Paulo. Utilizou-se a pesquisa bibliográfica como fonte de embasamento teórico-conceitual e um estudo exploratório, com abordagens qualitativa e quantitativa. A análise qualitativa indicou, como resultado, os fatores determinantes do desvio de conduta. A análise quantitativa forneceu um modelo estatístico que descreve a relação entre os fatores determinantes e a incidência do desvio. O modelo obtido, submetido a validação, foi considerado útil para previsão do desvio de conduta. Concluiu-se que é necessário um processo de planejamento que envolva todos os atores sociais, com base em princípios éticos aplicados à formação de códigos de conduta, voltados a incentivar o desenvolvimento dos valores de caráter. Palavras-chave: Desvio de conduta, ética organizacional, códigos de conduta, fatores determinantes do desvio de conduta.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho tem por objetivo avaliar a influência dos parâmetros pressão, freqüência e fator de trabalho, bem como a interação destes fatores, na capacidade de gerar plasma estável e com propriedades nitretantes no interior de furos não passantes de pequeno diâmetro. Para atingir estes objetivos foram realizados experimentos utilizando um reator equipado com fonte de potência pulsada de 2 KW, mistura gasosa composta de 76% de Nitrogênio e 24% de Hidrogênio, amostras de aço ABNT 1045 normalizadas. As nitretações foram realizadas pelo período de uma hora a temperatura de 500 0C. Foram empregadas freqüências de 100, 1000 e 5000 Hz, fatores de trabalho de 0,5 (50%), 0,75 (75%), 1 (100%), as pressões utilizadas foram de 2, 3 e 4 Torr e furos não passantes de φ3 x 40 mm, φ4 x 60 mm, φ5 x 75 mm. Para determinar a significância de cada parâmetro e de suas interações foi utilizado o modelo estatístico Multi-Factor Anova, com projeto fatorial cruzado a 3 fatores e 3 níveis para cada fator. Com o uso do programa Statgraphics foram geradas as equações que mais se ajustaram ao modelo. Estas equações determinam a máxima profundidade de geração de plasma nitretante no interior dos furos de pequeno diâmetro para as condições de tratamento expostas acima.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Uma questão decisiva na literatura empírica de avaliação do regime de metas diz respeito ao papel desta estratégia monetária na redução do nível da taxa de inação verificada nos países que a adotaram. Neste trabalho utilizamos o método de Controle Sintético desenvolvido por Abadie, Dimond e Hainmuller (2010) para investigar o impacto do regime de metas sobre a taxa de Inflação em sete países da OCDE: Austrália, Canadá, Espanha, Finlândia, Nova Zelândia, Reino Unido e Suécia. Nossos resultados indicam que a opção pelo regime de metas contribuiu para redução da taxa de inflação em pelo menos dois destes países: Finlândia e Reino Unido. Antes desta parte empírica, estendemos a análise de Abadie, Dimond e Hainmuller( 2010) de um modelo estatístico utilizado para motivar a utilização do Contole Sintético.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta pesquisa tem o objetivo de identificar as variáveis e sua influência na propensão à aquisição de crédito pessoal, propondo um modelo estatístico de propensão ao financiamento por cartões de crédito híbridos para maximização de contratação de crédito e otimização dos esforços de marketing. O estudo descritivo pode gerar insights para a compreensão da expansão do crédito ao consumo, sobretudo num contexto de escassez de opções de financiamento e limitação no canal de distribuição. Foram usados dados de uma base de clientes de uma instituição financeira com variáveis sócio demográficas e transacionai, e o modelo matemático foi seguido da validação de sua capacidade preditiva.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho apresenta o estudo de um portfólio de investimento de longo prazo com fundos de renda variável, fundos de renda fixa, imóveis e taxa livre de risco. Para a previsão dos retornos foram utilizados dois modelos distintos e então estimados os portfólios com diferentes graus de aversão a risco e diferentes prazos de maturação. O trabalho conclui que o investimento imobiliário deve ter uma participação considerável na escolha do portfólio - o que varia entre 20% e 28% - e também que o custo de não utilizar o investimento imobiliário como ativo da carteira pode ser relevante – de 119 p.p. a 178 p.p. por ano. Os modelos são robustos a mudanças de grau de aversão a risco e ao modelo estatístico adotado.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Neste trabalho é descrito um método automático para o cálculo das dimensões de caixas, em tempo real, a partir de uma única imagem obtida com projeção perspectiva. Conhecendo a orientação da caixa no espaço tridimensional e sua distância em relação à câmera, as coordenadas 3D de seus vértices podem ser estimadas e suas dimensões calculadas. Na técnica proposta, são utilizados conceitos de geometria projetiva para estimar a orientação espacial da caixa de interesse a partir de sua silhueta. Já a distância da caixa em relação à câmera é estimada por meio da projeção de feixes de laser sobre uma das faces visíveis da caixa. Esta abordagem pode ser aplicada quando duas ou três faces da caixa de interesse são visíveis simultaneamente na imagem, mesmo quando a caixa encontra-se parcialmente oclusa por outros objetos na cena. Entre as contribuições deste trabalho está o desenvolvimento de um eficiente processo de votação para a transformada de Hough, onde os pixels de uma imagem binária são processados em grupos ao invés de individualmente, como ocorre no método convencional. Também é apresentado um modelo estatístico para a remoção de fundo de cena. Nesse modelo, a cor de fundo é representada sob diferentes condições de iluminação por meio da delimitação de uma região no espaço de cores RGB. O modelo proposto não requer parametrização e é próprio para o uso em aplicações que requeiram câmeras móveis. Para a validação das técnicas descritas neste trabalho, foi construído um protótipo de scanner que calcula as dimensões de caixas a partir de imagens em tempo real. Com o auxilio do scanner, foram capturadas imagens e calculadas as dimensões de diversas caixas reais e sintéticas. As caixas sintéticas foram utilizadas em um ambiente controlado para a validação das técnicas propostas Um dos aspectos importantes deste trabalho é a análise da confiabilidade das medidas obtidas por meio da técnica proposta. Com o objetivo de estudar a propagação de erros ao longo do processo de cálculo das medidas, foi aplicado um método analítico baseado na Teoria de Erros. Também são apresentados estudos estatísticos envolvendo medições realizadas com o protótipo. Estes estudos levam em conta a diferença entre as medidas calculadas pelo sistema e as medidas reais das caixas. A análise dos resultados permite concluir que o método proposto é acurado e preciso.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo principal investigar o impacto dos accruals na variabilidade dos resultados corporativos (EVAR) que influenciam a aplicação prática do income smoothing nas firmas brasileiras de capital aberto. Inicialmente, é demonstrada a importância das demonstrações contábeis que devem ser evidenciadas em cumprimento aos princípios contábeis geralmente aceitos. Sua evidenciação deve representar a realidade econômico-financeira da firma para o processo de tomada de decisão dos acionistas e credores. Porém, em determinados momentos, os gestores se sentem motivados a praticar o gerenciamento dos resultados contábeis na tentativa de reduzir a variabilidade dos lucros por meio da utilização dos accruals. Os accruals correspondem à diferença entre o lucro líquido e o fluxo de caixa operacional. Nesse processo de redução da volatilidade dos resultados, os gestores se utilizam da prática do income smoothing procurando reduzir eventuais distorções no preço das ações da firma. A amostra neste estudo é composta por um grupo de 163 firmas de capital aberto listadas na Bovespa e que apresentaram informações financeiras no intervalo de 2000 a 2007, categorizadas por setores através de dados obtidos na Economática. O modelo estatístico utilizado na pesquisa foi a análise de regressão para explicar os diferentes modelos de cross-sectional. Os resultados desta pesquisa indicam que os accruals são significativos para explicar a variabilidade dos resultados corporativos (EVAR) de empresas brasileiras. Além disso, nossos resultados sugerem que o modelo estrutural de identificação do EVAR nas empresas brasileiras deve ser explicado por variáveis não contábeis diferentes das que são apresentadas pelas firmas norte-americanas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Abordagens teóricas dominantes no campo da estratégia empresarial (PORTER, 1980; BARNEY, 1991; PISANO e TEECE, 1997), de modo geral, não consideram explicitamente o comportamento corporativo político como um componente do amplo conjunto de elementos que compõem a estrutura dos processos de formulação e implementação estratégica. A pouca ênfase dada ao papel das firmas na seara política resulta em limitações para compreensão do ambiente competitivo e, consequentemente reduz o poder explicativo de estudos que se propõem a desvendar as razões do desempenho diferenciado das organizações. Salorio, Boddewyn e Dahan (2005) reforçam tal perspectiva ao observarem que firmas são organizações econômicas na medida em que em suas transações ponderam custos, benefícios, lucros, market share, mas também, enquanto organizações precisam definir e gerenciar fronteiras, bem como diferenciar e integrar seus membros, os stakerolders e suas operações. Esse envolvimento em um mix de comportamento político-econômico de barganha e não barganha leva à definição das firmas também como organizações políticas. Apesar de tal linha de pensamento ainda ter conotação de novidade para alguns, de reciclagem de antigas ideias para outros, ou, mesmo, parecer se pautar pela tentativa de retomar questões que sempre foram tratadas de forma lateral, Salorio, Boddewyn e Dahan (2005) enfatizam que “the political is always there”. O presente projeto teve objetivo central modelar ambiente simulado para testar antecedentes da atividade política corporativa (HILLMAN, KEIM e SCHULER, 2004), e como objetivos específicos: Modelar um simulador dos ambientes de negócio e político das empresas; aplicar o simulador para gerar dados sobre os antecedentes da participação política; testar antecedentes da participação política como alternativa estratégica em resposta ao baixo desempenho das firmas, a disponibilidade de recursos e a atividade política de concorrentes; testar a interação entre antecedentes de market e nonmarket para explicar a participação política. Com relação aos objetivos, o estudo pode ser caracterizado como explicativo, e quanto aos procedimentos técnicos adotados como de laboratório. O tipo de pesquisa adotado foi o de verificação de hipóteses causais assentada em uma abordagem metodológica quantitativa, cujos dados foram coletados por meio de 12 simulações, estruturadas no formato de um business game, com nove empresas em cada simulação, totalizando 108 unidades de análise. Configuram-se como sujeitos da pesquisa alunos do último ano dos cursos de graduação em administração e economia da Universidade Estadual de Londrina. As análises dos dados foram efetuadas utilizando-se o software STATA para desenvolvimento das regressões, sendo considerado como modelo estatístico a técnica de dados em painel com efeito fixo (WOOLDRIDGE, 2003), visto que o foco do estudo é a análise das informações (decisões/desempenho) das empresas ao longo do tempo. Os resultados indicam que: a) a ineficiência da firma afeta positivamente o investimento em financiamento eleitoral; b) o investimento em ações políticas corporativas ocorre no sentido de complementação às ações de market e não em contraposição, c) a maior propensão em investir em nonmarket está relacionada com desempenho inferior ao da concorrência; d) o aumento do investimento em nonmarket não está relacionado com a ação política mais ativa por parte da concorrência. Não foram encontradas evidências de que firmas com maiores sobras de recursos são mais ativas politicamente.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A tese apresenta três ensaios empíricos sobre os padrões decisórios de magistrados no Brasil, elaborados à partir de bases de dados inéditas e de larga escala, que contém detalhes de dezenas de milhares de processos judiciais na primeira e na segunda instância. As bases de dados são coletadas pelo próprio autor através de programas-robô de coleta em massa de informações, aplicados aos "links" de acompanhamento processual de tribunais estaduais no Brasil (Paraná, Minas Gerais e Santa Catarina). O primeiro artigo avalia - com base em modelo estatístico - a importância de fatores extra-legais sobre os resultados de ações judiciais, na Justiça Estadual do Paraná. Isto é, se os juízes favorecem sistematicamente a parte hipossuficiente (beneficiária de Assistência Judiciária Gratuita). No segundo artigo, estuda-se a relação entre a duração de ações cíveis no primeiro grau e a probabilidade de reforma da sentença, utilizando-se dados da Justiça Estadual de Minas Gerais. O objetivo é avaliar se existe um dilema entre a duração e a qualidade das sentenças. Dito de outra forma, se existe um dilema entre a observância do direito ao devido processo legal e a celeridade processual. O último artigo teste a hipótese - no âmbito de apelações criminais e incidentes recursais no Tribunal de Justiça de Santa Catarina - de que as origens profissionais dos desembargadores influenciam seus padrões decisórios. Isto é, testa-se a hipótese de que desembargadores/relatores oriundos da carreira da advocacia são mais "garantistas" ( e desembargadores oriundos da carreira do Ministério Público são menos "garantistas") relativamente aos seus pares oriundos da carreira da magistratura. Testam-se as hipóteses com base em um modelo estatístico que explica a probabilidade de uma decisão recursal favorável ao réu, em função da origem de carreira do relator do recurso, além de um conjunto de características do processo e do órgão julgador.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O objetivo deste estudo é propor a implementação de um modelo estatístico para cálculo da volatilidade, não difundido na literatura brasileira, o modelo de escala local (LSM), apresentando suas vantagens e desvantagens em relação aos modelos habitualmente utilizados para mensuração de risco. Para estimação dos parâmetros serão usadas as cotações diárias do Ibovespa, no período de janeiro de 2009 a dezembro de 2014, e para a aferição da acurácia empírica dos modelos serão realizados testes fora da amostra, comparando os VaR obtidos para o período de janeiro a dezembro de 2014. Foram introduzidas variáveis explicativas na tentativa de aprimorar os modelos e optou-se pelo correspondente americano do Ibovespa, o índice Dow Jones, por ter apresentado propriedades como: alta correlação, causalidade no sentido de Granger, e razão de log-verossimilhança significativa. Uma das inovações do modelo de escala local é não utilizar diretamente a variância, mas sim a sua recíproca, chamada de “precisão” da série, que segue uma espécie de passeio aleatório multiplicativo. O LSM captou todos os fatos estilizados das séries financeiras, e os resultados foram favoráveis a sua utilização, logo, o modelo torna-se uma alternativa de especificação eficiente e parcimoniosa para estimar e prever volatilidade, na medida em que possui apenas um parâmetro a ser estimado, o que representa uma mudança de paradigma em relação aos modelos de heterocedasticidade condicional.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The present paper has aimed the analysis of a real instrument which offers great impact in the ICMS revenue: The Fiscal Voucher Emitting Equipment (ECF). In this sense, the effects of the commercial automation process in Rio Grande do Norte s ICMS revenue between 2000 and 2006 were investigated. Based on this goal, the methodology adopted was characterized as a study of quantitative, exploratory-qualitative nature, through the collecting of secondary data, provided by the State Taxation Bureau (SET). In the absence of a statistic model in the existing literature about the approached theme, we decided for the elaboration of a suitable model, with tables and graphics. As a way to observe the effects of these programs on the revenue, the comparison between the ECF users and non users, in the same period, has proved to be of great importance. We reached the conclusion that even though the growth rates amongst the activities that use the ECF had ascended in tributary revenue in the related years, from 2004 on, with the introduction of TEF, this participation presented a higher growth, which leads us to suppose that the use of this recent instrument provides a significant impact in the State effective revenue. We stand out that the collected amounts could have been even higher, if the level of adhesion to the instrument had not been so low, mainly amongst the minor entrepreneurs, which may mean a rooted defraudation in the system. In short, through the set of data obtained, it is possible to conclude that the ECF and the recent TEF have significantly influenced the ICMS revenue in the entire State all over the period that was analyzed

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Deep bed filtration occurs in several industrial and environmental processes like water filtration and soil contamination. In petroleum industry, deep bed filtration occurs near to injection wells during water injection, causing injectivity reduction. It also takes place during well drilling, sand production control, produced water disposal in aquifers, etc. The particle capture in porous media can be caused by different physical mechanisms (size exclusion, electrical forces, bridging, gravity, etc). A statistical model for filtration in porous media is proposed and analytical solutions for suspended and retained particles are derived. The model, which incorporates particle retention probability, is compared with the classical deep bed filtration model allowing a physical interpretation of the filtration coefficients. Comparison of the obtained analytical solutions for the proposed model with the classical model solutions allows concluding that the larger the particle capture probability, the larger the discrepancy between the proposed and the classical models