1000 resultados para Sistema de arquivamento e distribuição de imagens
Resumo:
Os sistemas de monitoramento utilizando diatomáceas foram desenvolvidos, em sua maioria, para monitorar os efeitos da poluição orgânica e da eutrofização, adotando como parâmetros de referência a demanda biológica de oxigênio após cinco dias e a concentração de fósforo total. Entretanto, vários fatores naturais têm sido apontados como causadores de variação na composição destas comunidades em rios. Por isso, grandes mudanças estruturais não provam necessariamente a hipótese de que tenha ocorrido algum evento poluidor. Neste contexto, a partir da relação entre a estrutura da comunidade de diatomáceas epilíticas da microbacia do arroio Schmidt, RS, Brasil, mudanças na qualidade da água e alterações físicas do meio, como fluxo, sombreamento ripário, largura e profundidade, objetivou-se colher subsídios para aplicação em programas de manejo e conservação de ecossistemas aquáticos. Durante os meses de janeiro e fevereiro de 2004, foram realizadas quatro excursões científicas a seis estações, totalizando 24 amostragens, para medição das seguintes variáveis: condutividade elétrica, oxigênio dissolvido em saturação, pH, turbidez, demanda biológica de oxigênio em cinco dias (DBO5), demanda química de oxigênio (DQO), fósforo total, nitrato, sólidos totais dissolvidos, sólidos suspensos, sílica, profundidade de submersão do substrato, velocidade da correnteza, diâmetro dos seixos, largura do rio e sombreamento em função da vegetação ripária. Para as análises qualitativas e quantitativas das diatomáceas epilíticas, uma área de 25 cm2 foi raspada de cinco replicatas O material foi oxidado com dicromato de potássio, ácido sulfúrico e clorídrico para confecção de lâminas permanentes. Padrões de distribuição e abundância das espécies foram explorados através da Análise de Espécies Indicadoras e os fatores ambientais responsáveis por esta distribuição foram evidenciados pela Análise de Correspondência Canônica. Os resultados confirmaram a preferência de Cymbella e Encyonema por águas lentas e elevada luminosidade, bem como a adaptabilidade de Cocconeis ao sombreamento. Nitzschia acicularis, Surirella tenera e Planothidium rupestoides revelaram-se indicadoras de ambientes meso-eutróficos. Encyonema perpusilum destacou-se no habitat oligo/β- mesossapróbico, e Sellaphora pupula no sítio de maior concentração de eletrólitos. Pelo cruzamento das respostas das espécies à saturação de oxigênio, DBO5, DQO, condutividade, fósforo total, sólidos totais dissolvidos e turbidez, foi possível estabelecer dois grupos sinalizadores de qualidade: Achnanthes sp. 3, Cocconeis fluviatilis, Navicula angusta, Nitzschia acicularis, Tryblionella victoriae, Pinnularia cf. obscura, Planothidium rupestoides, Sellaphora pupula, Stenopterobia sp. e Surirella tenera, relacionadas com maior impacto antropogênico, e Achnanthes sp. 2, Encyonema perpusilum, Geissleria aikenensis, Luticola goeppertiana, Navicula symmetrica e Nitzschia amphibia, referindo-se a ambientes mais oxigenados, pouco mineralizados e com reduzidos teores de compostos orgânicos. Estas informações também constituem subsídios para estudos paleolimnológicos envolvendo a reconstituição de paleoambientes (e.g. maior abundância de Cymbella indicando ambientes lênticos) e a concentração de paleonutrientes (e.g. Nitzschia acicularis designando períodos de maior eutrofização).
Resumo:
O objetivo geral deste trabalho é desenvolver estudos relacionados à dispersão de poluentes, considerando a queima de carvão para geração de energia nas Usinas Termoelétricas de Charqueadas e São Jerônimo. O período de estudo foi do dia 17 a 23 de junho de 2003. Neste período houve a passagem de um sistema frontal. Sendo possível avaliar a dispersão dos poluentes em condições pré-frontal, frontal e pós-frontal. Para simular o comportamento dos poluentes neste período, foi utilizada uma subrotina de dispersão acoplada ao modelo RAMS (Regional Atmospheric Modeling System). Os resultados mostraram que nos dias classificados como pré-frontal e pós-frontal as concentrações do material particulado, dióxido de enxofre e do óxido de nitrogênio, atingiram seus valores máximos, pelo fato da umidade relativa do ar estar bastante baixa em torno de 60%, pressão atmosférica da ordem de 1021 hPa e a intensidade dos ventos fraca. No dia classificado como frontal, as concentrações estavam praticamente nulas, devido à passagem do sistema frontal que causou a queda na pressão atmosférica, aumento da umidade relativa e também pelo fato da ocorrência de precipitação atmosférica neste dia. As comparações dos resultados simulados, com os dados observados na estação de qualidade do ar mostraram-se satisfatórios. Com exceção do dia 22 de junho, que apresentou uma diferença da ordem de 90%.
Resumo:
Analisa o comportamento dinâmico de cadeias de distribuição genéricas e de uma cadeia específica. Avalia o motivo pelo qual o sistema de Estoque Gerido pelo Fabricante, EGF ou VMI, não apresenta os resultados esperados em determinadas situações. Propõe um novo modelo de gerenciamento da cadeia de abastecimento, coordenado pelo Distribuidor, o Estoque Gerido pelo Distribuidor, EGO ou DMI. Analisa o resultado desta nova proposta sob os aspectos estratégico, dinâmico e econômicofinanceiro
Resumo:
A utilização de reações nucleares ressonantes estreitas em baixas energias é uma ferramenta importante para a determinação de distribuições de elementos leves em filmes finos com resolução em profundidade subnanométrica. O objetivo do trabalho descrito ao longo da presente dissertação é aprimorar os métodos utilizados para a aquisição e interpretação das curvas experimentais. A obtenção das curvas experimentais consiste na detecção dos produtos das reações nucleares em função da energia das partículas incidentes, fazendo necessária variar a energia das partículas do feixe em passos discretos no intervalo desejado. Neste trabalho implementou-se um sistema automático para o controle e incremento da energia do feixe e monitoramento dos produtos das reações nucleares. Esse sistema de varredura automático de energia, além de aumentar consideravelmente a velocidade da medida, aumenta a qualidade das curvas experimentais obtidas. Para a interpretação das curvas de excitação experimentais, foi implementado um programa em linguagem de programação C, baseado na teoria estocástica, que permite simular numericamente as curvas de excitação. Para demonstrar a sua funcionalidade o método desenvolvido foi aplicado para verificar a estabilidade termodinâmica de filmes dielétricos ultrafinos depositados sobre silício, que foram posteriormente nitretados por plasma.
Resumo:
A evolução da Computação Baseada em Clusters, impulsionada pelo avanço tecnológico e pelo custo relativamente baixo do hardware de PCs, tem levado ao surgimento de máquinas paralelas de porte cada vez maior, chegando à ordem das centenas e mesmo milhares de nós de processamento. Um dos principais problemas na implantação de clusters desse porte é o gerenciamento de E/S, pois soluções centralizadas de armazenamento de arquivos, como o NFS, rapidamente se tornam o gargalo dessa parte do sistema. Ao longo dos últimos anos, diversas soluções para esse problema têm sido propostas, tanto pela utilização de tecnologias especializadas de armazenamento e comunicação, como RAID e fibra ótica, como pela distribuição das funcionalidades do servidor de arquivos entre várias máquinas, objetivando a paralelização de suas operações. Seguindo essa última linha, o projeto NFSP (NFS Parallèle) é uma proposta de sistema de arquivos distribuído que estende o NFS padrão de forma a aumentar o desempenho das operações de leitura de dados pela distribuição do serviço em vários nós do cluster. Com essa abordagem, o NFSP objetiva aliar desempenho e escalabilidade aos benefícios do NFS, como a estabilidade de sua implementação e familiaridade de usuários e administradores com sua semântica de uso e seus procedimentos de configuração e gerenciamento. A proposta aqui apresentada, chamada de dNFSP, é uma extensão ao NFSP com o objetivo principal de proporcionar melhor desempenho a aplicações que explorem tanto a leitura como a escrita de dados, uma vez que essa última característica não é contemplada pelo modelo original A base para o funcionamento do sistema é um modelo de gerenciamento distribuído de meta-dados, que permite melhor escalabilidade e reduz o custo computacional sobre o meta-servidor original do NFSP, e também um mecanismo relaxado de manutenção de coerência baseado em LRC (Lazy Release Consistency), o qual permite a distribuição do serviço sem acarretar em operações onerosas de sincronização de dados. Um protótipo do modelo dNFSP foi implementado e avaliado com uma série de testes, benchmarks e aplicações. Os resultados obtidos comprovam que o modelo pode ser aplicado como sistema de arquivos para um cluster, efetivamente proporcionando melhor desempenho às aplicações e ao mesmo tempo mantendo um elevado nível de compatibilidade com as ferramentas e procedimentos habituais de administração de um cluster, em especial o uso de clientes NFS padrões disponíveis em praticamente todos os sistemas operacionais da atualidade.
Resumo:
A enorme complexidade dos sistemas ecológicos tem sido uma grande barreira para a compreensão e o gerenciamento da problemática ambiental. Neste sentido a modelagem matemática é uma valiosa ferramenta, devido a sua capacidade de organizar as informações disponíveis sobre estes sistemas e de fazer previsões a seu respeito para diferentes condições. Desta forma a análise de sistemas naturais vem sendo abordada de diferentes maneiras, sendo que nas últimas décadas a teoria de ecossistemas expandiu-se e ramos específicos, que permitem seguir e predizer a evolução de ecossistemas, foram formulados. Um destes enfoques, conhecido como análise do fluxo de insumo-produto, pode ser utilizado para explicar o funcionamento e estrutura dos subsistemas de um ecossistema através da descrição dos fluxos de matéria ou energia. A análise do fluxo de insumo-produto pode ser representada através de dois modelos: o modelo determinístico ou o modelo estocástico, tendo sua origem em estudos de caso com o objetivo de analisar a econômica norte-americana, sendo uma extensão prática da teoria clássica de interdependência geral. Este trabalho faz uma abordagem sintética da evolução desta análise, avaliando dados teóricos e principalmente dados referentes à Lagoa Itapeva. A análise de input-output (determinística e estocástica) com o propósito de obter informações no que diz respeito aos fluxos (matéria e energia), é bastante simples; sendo que os modelos determinísticos se prestam melhor para traçar um panorama global e para obter projeções para as variáveis já os modelos estocásticos são mais complexos, mas provêem uma descrição mais acurada. Na Lagoa Itapeva os processos determinísticos demonstraram um baixo índice de ciclagem do carbono entre os três compartimentos em estudo e o fluxo preferencial na normalização corresponde ao compartimento dos produtores primários, isto decorre de não existir loop nos compartimentos em estudo e também não existir fluxos em dois sentidos. Em relação à avaliação estocástica foram observadas uma baixa relação no sentido espacial superfície-meio-fundo da lagoa, e uma boa distribuição espacial norte-centro-sul. Quanto à distribuição temporal, foi constatada uma baixa concordância entre os dados analisados e os dados reais quanto das análises realizadas em intervalos de tempo pequeno (horas) e uma boa concordância nas medidas feitas quando o intervalo foi significativo (meses). Também em relação à Lagoa Itapeva, foi verificado nas análises estocásticas, utilizando-se operadores espaciais, que como a dinâmica biológica nem sempre é linear, os organismos não podem acompanhar imediatamente e perfeitamente as mudanças do ambiente, resultando em tempos de residência de matéria significativamente baixo. Além da análise dos fluxos ligados a este ecossistema lagunar, foram desenvolvidas técnicas de correção e adaptação de dados referentes à amostragem ocorrida na Lagoa durante um ano de campanha. Assim, propõe-se uma nova perspectiva no uso desta metodologia de forma simples e de fácil manipulação matemática.
Resumo:
Este trabalho apresenta um modelo de metadados para descrever e recuperar imagens médicas na Web. As classes pertencentes ao modelo viabilizam a descrição de imagens de várias especialidades médicas, incluindo suas propriedades, seus componentes e as relações existentes entre elas. Uma das propriedades que o modelo incorpora é a classificação internacional de doenças, versão 10 (CID-10). O modelo de metadados proposto, inspirado em classes, favorece a especialização e sua implementação na arquitetura de metadados RDF. O modelo serviu de base para a implementação de um protótipo denominado de Sistema MedISeek (Medical Image Seek) que permite a usuários autorizados: descrever, armazenar e recuperar imagens na Web. Além disto, é sugerida uma estrutura persistente apropriada de banco de dados para armazenamento e recuperação dos metadados propostos.
Resumo:
Este trabalho teve como objetivo o desenvolvimento de uma nova técnica para determinação do tamanho médio e da distribuição de tamanho de bolhas de ar em meio aquoso. A nova técnica, denominada de LTM-BSizer, uma vez otimizada, foi aplicada na caracterização das bolhas geradas por diversos métodos utilizados tanto na flotação para tratamento de efluentes líquidos quanto na flotação de partículas minerais e, principalmente, na investigação de parâmetros operacionais e do efeito do tamanho de bolhas na flotação de partículas minerais (quartzo como modelo) finas (40-10 µm) e ultrafinas (<10 µm). A técnica LTM-BSizer é baseada no conceito da captura, ou seja, ao contrário das técnicas fotográficas até agora propostas, onde as imagens (fotos ou vídeos) das bolhas em movimento foram obtidas com visores verticais, este método obteve as imagens das bolhas estabilizadas em um visor disposto na horizontal. Entre as vantagens em relação aos métodos fotográficos existentes destacam-se a melhor qualidade das imagens e a capacidade de medir distribuições de tamanho de bolha com grande amplitude, desde microbolhas (<100 µm) até bolhas maiores (~ 1 a 3 mm). Os métodos de geração de bolhas pesquisados foram: microbolhas geradas por despressurização de água saturada com ar em um vaso saturador (processo de flotação por ar dissolvido-FAD) ou por uma bomba centrífuga multifase (novo equipamento para geração de microbolhas), injeção de mistura ar-líquido através de um constritor tipo venturi (destaque na flotação não convencional), injeção de ar em cilindro inox poroso (comumente aplicado para dispersão de gás) e bolhas geradas em uma célula de flotação por ar induzido (FAI), convencional de bancada Para todos os métodos citados, exceto o último, a distribuição de tamanho de bolha foi avaliada numa coluna em acrílico com 200 cm de altura e 72 mm de diâmetro, onde através de um ponto de amostragem parte do fluxo foi conduzida até o visor. Os resultados obtidos com esta técnica foram, para os diâmetros médios de bolha: 30 a 70 µm para FAD, 65 a 130 µm para bomba multifase, 200 a 1400 µm para venturi, 500 a 1300 µm para FAI e 500 a 1000 µm para o cilindro poroso. A influência de alguns parâmetros operacionais na formação das bolhas foi estudada em detalhe e os resultados obtidos mostraram uma boa correspondência com os valores encontrados na literatura e em outros casos, elucidaram efeitos considerados contraditórios na literatura técnica. Este trabalho demonstrou que, o tamanho médio e a distribuição de tamanho das microbolhas, não são influenciados pela pressão de saturação no intervalo de 294 a 588 kPa, mas sim pela quantidade de bolhas e pelo tempo de retenção Também foi constatado que a diminuição da tensão superficial da água (adição de 30 mg/L de oleato de sódio) aumenta consideravelmente (3 a 8 vezes) o número de microbolhas na FAD a baixas pressões de saturação (196 e 294 kPa). O tamanho e a distribuição de tamanho de bolhas geradas em constrições de fluxo tipo venturi variam em função dos parâmetros concentração de tensoativo, velocidade superficial de líquido (UL) e razão gás/líquido (Qr). Uma pequena diminuição da tensão superficial, de 73 para 68 mN/m, provocada pela adição de 20 mg/L do tensoativo DF 250, foi suficiente para diminuir consideravelmente o tamanho das bolhas geradas, permanecendo constante para concentrações maiores, sugerindo que esta seja a concentração crítica de coalescência (CCC) para este sistema. Um aumento de UL (mantendo Qr constante) e diminuição de Qr (com UL constante) levaram a distribuições com menor amplitude e diâmetro médio. No caso das microbolhas geradas através da bomba multifase, o tamanho de bolhas diminuiu com a pressão até atingir o limite de solubilidade teórico ar/líquido. O tamanho das bolhas gerados através de placa porosa e FAI apresentaram boa correspondência com os reportados na literatura e em ambas as técnicas foi, de novo, encontrada, para DF 250, a mesma CCC igual a 20 mg/L. O sistema de flotação de partículas finas e ultrafinas, foi estudado via recuperação de finos de quartzo (50% < 10µm) em coluna de laboratório. As variáveis estudadas foram; a distribuição de tamanho de bolhas e a concentração de coletor (amina). Os resultados obtidos mostraram que a recuperação das frações mais finas aumenta com a diminuição do tamanho de bolhas de acordo com os modelos existentes de flotação. Entretanto, foi encontrado, na captura de partículas ultrafinas pelas bolhas, um valor ótimo de tamanho de partícula. Assim, a captura diminui com o tamanho de partícula até 5-7 µm e aumenta, de novo, nas frações menores. Esses resultados são discutidos em termos de um mecanismo de difusão como fenômeno predominante nos mecanismos de adesão bolha-partícula.
Resumo:
A validação de projetos de sistemas eletrônicos pode ser feita de diversas maneiras, como tem sido mostrado pelas pesquisas em síntese automática e verificação formal. Porém, a simulação ainda é o método mais utilizado. O projeto de um sistema digital típico pode ser desenvolvido em diversos níveis de abstração, como os níveis algorítmico, lógico ou analógico. Assim, a simulação também deve ser executada em todos esses níveis. A simulação apresenta, contudo, o inconveniente de não conseguir conciliar uma alta acuracidade de resultados com um baixo tempo de simulação. Quanto mais detalhada é a descrição do circuito, maior é o tempo necessário para simulá-lo. O inverso também é verdadeiro, ou seja, quanto menor for a acuracidade exigida, menor será o tempo dispendido. A simulação multinível tenta conciliar eficiêencia e acuracidade na simulação de circuitos digitais, propondo que partes do circuito sejam descritas em diferentes níveis de abstração. Com isso, somente as partes mais críticas do sistema são descritas em detalhes e a velocidade da simulação aumenta. Contudo, essa abordagem não é suficiente para oferecer um grande aumento na velocidade de simulação de grandes circuitos. Assim, surge como alternativa a aplicação de técnicas de processamento distribuído à simulação multinível. Os aspectos que envolvem a combinação dessas duas técnicas são abordados nesse trabalho. Como plataforma para os estudos realizados, optou-se por usar duas ferramentas desenvolvidas nessa Universidade: os simuladores do Sistema AMPLO e o Sistema Operacional HetNOS. São estudadas técnicas de sincronização em sistemas distribuídos, fundamentais para o desenvolvimento dos simuladores e, finalmente, são propostas alternativas para a distribuição dos simuladores. É realizada, ainda, uma análise comparativa entre as versões propostas.
Resumo:
O trabalho se propoe a analisar a forma pela qual o sistema tributário brasileiro atual proporciona recursos para as ad ministrações municipais. Partiu-se de aspectos teóricos da concepção de um si& tema tributário, as funções que ele exerce, sua influência política, social e econômica. Esta abordagem teórica foi considerada em sua aplicação ao sistema tributário brasileiro em todos aqueles aspectos. Ao analis?ra participação relativa das diversas esferas de go verno na divisão dos recursos tributários fica constatada suaconcen tração em poder da União. Trata-se, no entanto, de um processo que recua ao início da República, ou até antes. Ver.ifica-se também que nunca a participação dos municípios foi tão expressiva como agora, desde que computadas as transferências. As ~inculações, a que aapli caça0 dos recursos provenientes de algumas delas estão sujeitas, com prometem a autonomia pretendida pelos municípios, conforme assegur~ da pela Constituição. A seguir,o estudo procura verificar até que ponto os municípios exploram devidamente o potencial de impostos que são de sua competência, havendo algumas evidências que existe ainda margem de manobra. Na última parte, o esquema de distribuição das duas principais fontes de transferências, FPM e rCM, é analisado no sentido de se levantar de que forma certos municípios ou extratos de municípios são mais ou menos beneficiados. Também neste campo algumas melhorias poderão ser introduzidas. Como conclusão, verifica-se que a concentração bene" ficia os municípios de menor porte, onde as fontes de recursos proprios, mesmo amplamente exploradas, não são suficientes nara o aten dimento das necessidades mínimas. E a carga tributária já é bastante pesada para admitir elevações substanciais das receitas que venham a incrementar as transferências ou as receitas locais. A solução parece residir numa racionalização das des pesas e numa melhor definição dos encargos cometidos a cada esfera de governo, conciliando-os com uma adequada distribuição das receitas.
Resumo:
Adminsitração, análise e tecnologia da informação
Resumo:
Na América do Sul há uma forte incidência de Sistemas Convectivos de Mesoescala (SCM), que na maioria das vezes, estão associados a desastres naturais. Estes causam impactos não só do ponto de vista meteorológico, mas também social e econômico. Neste trabalho analisa-se 49 Sistemas Convectivos de Meso-α, que atuam na América do Sul, durante os anos de 1999, 2000 e 2001. Com o auxílio de imagens do satélite GOES-8(canal IR, 10,4μm), identifica-se padrões comportamentais ao longo da vida dos SCM. Para a caracterização da evolução temporal e espacial, faz-se uma divisão da análise em duas partes: temporal e espacial. Na análise temporal, observam-se as variações rítmicas na intensificação da atividade convectiva. Na análise espacial, são observadas características como: tamanho e tempo de vida dos SCM e de seus respectivos núcleos distâncias entre os núcleos, trajetórias dos SCM entre outras características comportamentais dos núcleos convectivos que constituem o sistema. A análise dos dados mostra que mais da metade dos casos analisados sofrem dois tipos de variações na atividade convectiva, uma com período de 12 horas, e outra com menor periodicidade, 5,1 horas. Mostra-se que a evolução espacial dos SCM dá-se em média na direção das latitudes mais baixas, de forma discreta com o aparecimento de novos núcleos, na direção noroeste em relação ao núcleo antigo.
Resumo:
Este trabalho, apresentado sob forma de dissertação, apesar de limitado .ao universo da gestão dos recursos materiais - GRM, representa uma tentativa para a criação de meios para medir a eficiência e a eficácia da função gerencial. Foram contemplados dois segmentos do universo da GRM: as relações comerciais com os fornecedores e as atividades de gerenciamento interno das diversas funções técnico-administrativas. Nestas, atingimos um amplo espectro, indo desde a infra-estrutura gerencial até os respectivos custos operacionais. Foram consideradas as seguintes funções: • Planejamento e Controle • Aquisição de Material • Controle e Distribuição de Material • Qualidade e Desenvolvimento o desempenho de cada uma das funções é avaliado por meio de indicadores, resultantes da combinação de dados operacionais, tais como: produção, venda, número de empregados envolvidos, valor das aquisições realizadas, custos de aquisição e de estocagem, valor dos estoques, carga transportada, custos de controle de qualidade e outros relacionados à GRM de uma organização. Consideramos que três orientações deste tabalho apresentam certo grau de originalidade. A primeira refere-se ao ajustamento dos valores monetários envolvidos, a fim de adequá-los às características inflacionárias da nossa economia. A segunda é o tratamento estatístico dos dados para que sejam reduzidas eventuais distorções. Assim, teremos indicadores próximos da realidade, baseados em números correntes e expurgados de variações aleatórias. A terceira orientação é o uso da informática para proporcionar a maior disseminação possível dos indicadores, seja na entrada de dados, no ajustamento, no cálculo, na armazenagem, na recuperação, no tratamento estatístico e na análise e criação de padrões de desempenho gerencial. Como anexo à dissertação, estamos incluindo disquetes em 3 1/2" e 5 1/4", contendo software interativo, denominado SIGMAT - Sistema de Indicadores para a Avaliação do Desempenho da Gestão dos Recursos Materiais. Este aplicativo executa todas as propostas apresentadas na presente dissertação.
Resumo:
A monografia apresenta uma análise global do Sistema Tributário Nacional, sob o prisma da repartição de recursos e de poder entre as três esferas de Governo, e uma análise mais específica do funcionamento do principal tributo estadual - o ICM - apontando suas principais distorções e seus efeitos na distribuição regional de recursos. O estudo da evolução do Sistema Tributário Nacional, dos fins do século passado até nossos dias, mostra uma tendência nítida de centralização de receitas e de poder tributário na união,bastante acentuada após a Reforma de 1966. A perda de autonomia dos Estados e Municípios em matéria de política fiscal teria sido o principal fator responsável por seu enfraquecimento financeiro e político, na medida em que mesmo os mefanismos de compensação concebidos pela própria Reforma como o sistema de participação nos tributos federais, acabaram ficando descaracterizados pelo , excesso de manipulações, ao arbítrio do poder central. Também no que se refere ao: ICM, a análise efetuada perrnite concluir que a excessiva centralização de decisões no Governo Federal, ao contrário de melhorar a eficiência do tributo, teria. contribui do para uma série de distorções em s~u funcionamento. A falta de uma definição política e normativa dos objetivos que se pretende com ele alcançar faz com que o imposto reúna hoje uma série de desvantagens, corno a redução da autonomia dos Estados, a interferência nos fluxos de comércio interno, e um insatisfatório sistema de distribuição de receitas no comércio interestadual. Neste último aspecto, análise empírica demonstrou que são substanciais as transferências interestaduais de ICM dos Estados importadores para os exportadores e que, na maioria dos casos, as transferências federais, através do Fundo de participação, não têm sido se quer capazes de compensar a redução da base tributária dos Estados mais pobres,representada por aquelas transferências .
Resumo:
O presente estudo teve por objetivo analisar imagens do feminino veiculadas pela mensagem publicitária. Para tanto, levantaram-se questões referentes à discussão da caracterização social do feminino, passando-se ao exame da ação social do sistema publicitário. As formulações teóricas de noções relacionadas com a conceituação de individualismo, centrais no trabalho, além de integrarem-se, às discussões sobre a caracterização social do feminino e às análises sociais do sistema publicitário, também constituíram eixo de reflexão para a análise das publicidades que formaram o corpus da pesquisa. O recorte do objeto de estudo situou-se a nível da mensagem publicitária divulgada em revistas femininas, e o exercício de análise realizou-se no sentido de detectar virtuais imagens do feminino existentes nessa mensagem.