983 resultados para CODIGOS CORRETORES DE ERROS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desse trabalho é verificar evidências empíricas do canal de crédito como transmissor da política monetária no Brasil no período de janeiro de 2000 a março de 2007. A metodologia utilizada baseou-se na relação entre as séries temporais agregadas de variáveis de política monetária, mercado de crédito, mercado monetário e inflação. Os testes econométricos foram realizados com os dados agregados utilizando-se os modelos VAR (vetor autoregressivo) e VEC (vetor de correção de erros) para analisar as séries temporais. Foi observado o comportamento do mercado de emissão de dívida como fonte alternativa de financiamento externo das empresas, além do crédito bancário, de modo a se avaliar se há um deslocamento para outras fontes de financiamento externo pelo efeito de um choque monetário. A conclusão que emerge dos testes econométricos indica a importância do crédito bancário na transmissão da política monetária, identificada através dos efeitos de causalidade e as reações de impulso-resposta encontradas. A observação do aumento nas emissões privadas das empresas para atender suas necessidades de financiamento externo dá indicação de que a redução do crédito, após contração monetária, ocorre pelo lado da oferta de crédito pelos bancos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação visa-se estudar e propor alternativas de solução para a proteção de estruturas e sistemas elétricos contra fogo numa unidade de craqueamento catalítico de uma refinaria de petróleo, por meio de proteção passiva. A proteção passiva tem por finalidade garantir a integridade das estruturas sujeitas a incêndio, durante um determinado período de tempo, para possibilitar, no caso da refinaria, a realização de procedimentos de parada da unidade de forma segura e controlar o incêndio a fim de diminuir a possibilidade de propagação do fogo para outras áreas. Com base em técnicas de análise de riscos fez-se a identificação de zonas potencialmente sujeitas a cenários de acidente envolvendo jato de fogo e/ou incêndio em poça. A delimitação das áreas onde haveria necessidade de proteção passiva foi realizada com base em modelos para jatos de fogo e incêndio em poça já estabelecidos na literatura. O dimensionamento da proteção passiva de estruturas e sistemas elétricos com o uso de diversos materiais usados comercialmente para este fim foi estimado com base em equações empíricas desenvolvidas por Jeanes, 1980, Stanzak, 1973 e PABCO, 1984, e, para alguns casos particulares foi feita uma verificação por solução numérica da equação da condução do calor em meio sólido.Assim, foram determinados quais os materiais mais adequados em cada caso de aplicação e qual a espessura em que deve ser aplicado para que a temperatura no elemento estrutural ou no sistema elétrico não atinja a sua determinada temperatura crítica em um período de tempo pré-determinado. Para os casos de elementos estruturais como colunas de sustentação da unidade de seção cilíndrica, o principal material para proteção passiva é a argamassa projetada e para perfil I, é o emprego de placas de gesso. Já para o caso de sistemas elétricos, podem ser utilizadas tanto tintas intumescentes quanto as mantas reforçadas com fibras minerais, esta escolha depende da geometria do sistema em que será empregado. Da comparação entre estes dois métodos pode-se concluir que o dimensionamento da proteção passiva fazendo o uso das correlações empíricas é menos conservativo que para o caso do uso da equação da difusão do calor resolvida por método numérico. Porém, os resultados diferem dentro de um limite considerado aceitável (em torno de 15%) levando-se em consideração os erros embutidos em cada método de cálculo. É importante mencionar que as correlações empíricas são de mais simples aplicação por possuir apenas operações matemáticas básicas. Usando as correlações empíricas para os perfis cilíndricos de aço (diâmetro de 0,1524 m e espessura de parede de 0,0254 m), a espessura de revestimento estimada com o uso das correlações empíricas necessária para garantir que a temperatura na interface entre os dois materiais não atinja 550°C em duas horas seria de 13,5 mm para argamassa projetada, 19,7 mm para vermiculita com silicato de sódio e 34,5 mm para recobrimento com concreto com proteção do tipo contorno. Fazendo o mesmo cálculo pelo método numérico proposto, os resultados foram de 15,53 mm para argamassa projetada, 22,06 mm para vermiculita com silicato de sódio e 38,98 mm para recobrimento com concreto com proteção do tipo contorno. Fazendo o mesmo cálculo pelo método numérico proposto, os resultados foram de 15,53 mm para argamassa projetada, 22,06 mm para vermiculita com silicato de sódio e 38,98 mm para recobrimento com concreto com proteção do tipo contorno. Cabe ressaltar que com a realização desta dissertação busca-se uma integração entre o mestrado acadêmico e o meio empresarial com o desenvolvimento de trabalhos de natureza acadêmica que tenham aplicação direta na prática. Espera-se assim permitir que Universidade dê retorno à sociedade que a mantém e propiciar que setores da sociedade possam usufruir da capacidade disponível na academia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modelagem de um depósito mineral é realizada por meio da combinação de diversas fontes de informações. Dentre estas fontes pode-se citar a sísmica de reflexão. A sísmica de reflexão fornece dados de tempos de propagação de ondas sísmicas até essas serem refletidas pelas estruturas dos depósitos minerais. As profundidades dessas estruturas podem ser obtidas multiplicando-se os tempos pelas velocidades de propagação das ondas sísmicas. Normalmente, a velocidade de uma onda sísmica é determinada indiretamente por meio do processamento dos próprios dados sísmicos, o que pode gerar erros na interpretação de seções geológicas. A perfilagem geofísica é uma alternativa na determinação dessa velocidade, uma vez que a velocidade de onda acústica é obtida ao longo do furo perfilado e a velocidade de onda acústica pode ser relacionada com a velocidade de onda sísmica. As estimativas de valores de velocidade na região entre os furos perfilados permite as estimativas de valores de profundidade nessa região. Neste estudo, foram analisadas possibilidades de se estimar, em um grid, valores de velocidade e incertezas associadas a esses valores, utilizando-se ferramentas geoestatísticas. A simulação seqüencial Gaussiana, dentre as ferramentas analisadas, pareceu ser a mais adequada para obtenção de velocidades e incerteza dos valores estimados em cada nó do grid considerado. Para o caso abordado, alguns valores de profundidade da estrutura de interesse apresentaram variações significativas em função da incerteza de velocidade. Essas variações são muito importantes na execução de certos métodos de lavra subterrânea, o que enfatiza a importância da determinação da incerteza das velocidades estimadas. A metodologia é apresentada e ilustrada em um importante depósito de carvão em Queensland, Austrália.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os sistemas computacionais estão tomando proporções cada vez maiores envolvendo situações bastante complexas, onde muitas vezes erros são inaceitáveis, como em sistemas bancários, sistemas de controle de tráfego aéreo, etc... Para obter software confiável e com desempenho aceitável, pode-se aliar técnicas de desenvolvimento formal de software a técnicas de simulação de sistemas. O ambiente PLATUS reúne essas duas áreas: modelos de simulação são descritos usando gramáticas de grafos uma linguagem de especificação formal. Gramáticas de grafos são uma generalização de gramáticas de Chomsky, substituindo strings por grafos. Neste trabalho, serão tratadas gramáticas de grafos baseados em objetos, um modelo onde vértices e arcos são tipados, e as especificações são modulares (a especificação de um sistema consiste em várias gramáticas de grafos combinadas). Assim, o modelo de um sistema pode ser descrito de forma precisa, e a linguagem de especificação é bastante abstrata e expressiva. Num ambiente de simulação a questão da recuperação de dados merece uma atenção especial, uma vez que a eficiência do simulador está diretamente ligada a agilidade na obtenção das informações. Neste trabalho, o objetivo principal é definir uma representação para gramáticas de grafos que facilite o armazenamento, a recuperação e análise das estruturas identificadas no ambiente PLATUS, ou seja, gramáticas de grafos baseadas em objetos. São definidas também funções que implementam os procedimentos necessários, para a recuperação de dados durante a simulação. A eficiência dessas funções é demonstrada através do cálculo de sua ordem de complexidade. As estruturas são validadas através da implementação de um protótipo de banco de dados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Doença de Gaucher (DG) é a doença de depósito mais comum. É causada pela deficiência da enzima -glicosidase (-gli), necessária para o catabolismo intralisossômico do glicocerebrosídio, sendo herdada de modo autossômico recessivo. Esta deficiência resulta em um acúmulo de glicocerebrosídio nos lisossomos de macrófagos derivados de monócitos em tecidos do sistema reticuloendotelial. No período de janeiro de 1982 a outubro de 2003 foram analisadas, bioquimicamente, 1081 amostras de sangue de pacientes com suspeita de DG. Nestas amostras foram medidas as atividades das enzimas -gli e quitotriosidase (QT). Foram diagnosticados 412 casos de DG (38,1%), sendo na sua grande maioria DG tipo 1. As regiões brasileiras de maior concentração destes pacientes foram as regiões sudeste, sul e nordeste. A idade média destes pacientes ao diagnóstico foi de 19 anos. A atividade da -gli de indivíduos com DG foi em média 10,7% daquela apresentada pelos indivíduos normais. A QT apresentou-se em média 269 vezes mais elevada no grupo de pacientes com DG. Nos 669 casos em que não foi confirmada a presença de DG, houve pacientes com Doença de Niemann-Pick tipos A, B ou C (44 casos), possíveis heterozigotos para DG (59 casos), pacientes com outras DL (19 casos) e outros EIM (3 casos) Em 508 casos não foi encontrado nenhum distúrbio metabólico. Foram analisadas as mutações de 128 indivíduos com DG, sendo que o genótipo N370S/L444P foi o mais freqüente (48,4%). Este estudo mostra que o protocolo bioquímico empregado foi eficiente para a detecção de DG, uma doença que se mostra bastante freqüente também no Brasil. Neste estudo também foi possível caracterizar o comportamento do pH ótimo, termoestabilidade, Km e Vmax da -gli em leucócitos de pacientes com DG e heterozigotos obrigatórios com diferentes genótipos comparando-os com indivíduos normais. Os resultados mostraram um comportamento diferente da enzima nos três grupos analisados. Esse comportamento variou conforme a mutação presente nos indivíduos. Não foi observado somente um único pH ótimo nos 3 grupos. A enzima de indivíduos normais mostrou uma faixa de pH de 5,0 a 5,4, a de heterozigotos, um único pH ou uma estreita faixa e a de indivíduos com DG, 2 picos de pH ótimo. O Km e a Vmax da enzima de heterozigotos variou desde igual até maior que aquele da enzima normal. Quando comparamos a enzima de indivíduos normais com aquela de pacientes com DG, observamos que nos genótipos N370S/N370S e N370S/IVS2+1 o Km foi maior e no grupo N370S/L444P o Km foi significativamente menor. A Vmax nos indivíduos com DG apresentou valores menores em relação aos indivíduos normais. A enzima de leucócitos de indivíduos normais, heterozigotos e homozigotos para DG, foi inativada a 60ºC. As diferenças de comportamento entre as enzimas dos três grupos analisados permitiram discriminá-los, ou seja, a enzima de indivíduos homozigotos apresentou uma maior atividade residual após 60 minutos de pré-incubação, sendo mais termoestável que os grupos de indivíduos normais e heterozigotos. . A mutação N370S produziu uma enzima mais estável e cataliticamente mais ativa que aquela da mutação L444P. Esta por sua vez, foi mais estável e ativa do que a mutação D409H. O mesmo aconteceu com os indivíduos homozigotos para DG, onde o comportamento bioquímico da b-gli foi determinado pela presença do alelo N370S. Portanto há um gradiente de estabilidade que vai de uma condição mais estável a uma condição menos estável. Este gradiente assemelha-se aquele da classificação do fenótipo clínico da DG. Os resultados nos permitem correlacionar diretamente a mutação N370S, mais estável cineticamente, com a forma clínica não neurológica da doença e a mutação menos estável cataliticamente (D409H) com a forma clínica neurológica da DG. Através deste trabalho foi possível obter informações sobre o comportamento da proteína em cada mutação estudada, seja ela em homo ou em heterozigose e estes dados podem colaborar para uma melhor distinção entre a enzima de indivíduos normais, heterozigotos e homozigotos para DG.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os objetivos da presente tese de doutorado foram os de buscar novos antipsicóticos atípicos de baixo preço comercial e também procurar entender o mecanismo de ação que leva a um perfil antipsicótico atípico. Os resultados da tese são divididos em duas partes, de acordo com sua natureza, em experimentais (primeira parte) e teóricos (segunda parte). Para o desenvolvimento da primeira parte, foi necessária primeiramente a programação de um software para medir locomoção em roedores após filmagem com webcam. A seguir, foram investigados os efeitos da guanosina, flunarizina e cinarizina em modelos animais de psicose, bem como em outros paradigmas comportamentais. A guanosina foi escolhida para estudo uma vez que tem se mostrado que ela interage com o sistema glutamatérgico – que sabidamente está envolvido na fisiopatologia da esquizofrenia – promovendo a captação astrocitária de glutamato. Já a flunarizina e a cinarizina, dois bloqueadores de canal de cálcio empregados para tratar enxaqueca e vertigem foram escolhidas pelo fato delas produzirem sinais e sintomas extrapiramidais em pacientes idosos, o que posteriormente foi relacionado às suas propriedades como antagonistas moderados dos receptores dopaminérgicos do tipo D2 A guanosina diminuiu o aumento de locomoção induzido por um antagonista NMDA (MK-801), enquanto que não apresentou efeito sobre o aumento de locomoção induzido por anfetamina, de forma que sua utilidade como potencial antipsicótico deve ser ainda melhor estudada. Tanto a flunarizina quanto a cinarizina foram capazes de diminuir o aumento de locomoção induzido por MK-801 e por anfetamina em doses que não causam efeitos catalépticos importantes. Portanto, foi concluído que estes dois compostos apresentam um potencial perfil de antipsicótico atípico, com as vantagens de já estarem disponíveis para uso comercial, boa tolerabilidade e baixo custo quando comparados com os antipsicóticos atípicos disponíveis comercial. A segunda parte da tese apresenta alguns resultados teóricos matemáticos que podem ser derivados da teoria da lei de ação das massas aplicada ao binding de receptores, utilizando também resultados experimentais já conhecidos de PET Estes resultados apresentam insights ao entendimento das diferenças entre os perfis antipsicóticos atípicos e típicos em relação à geração de sinais extrapiramidais. É discutido que fatores culturais e comerciais relacionados à posologia atual empregada no tratamento com antipsicóticos típicos podem ser os responsáveis pelas diferenças de perfis, uma vez que alguns deles são prescritos em doses proporcionalmente maiores em relação à sua afinidade, atingindo assim maiores níveis de bloqueio dopaminérgico no estriado. Uma curta meia-vida plasmática também é apontada como um possível parâmetro importante na geração de um perfil atípico. É mostrado ainda alguns erros de concepção relacionados ao curso temporal da ocupação dopaminérgica que tem sido atualmente cometidos na literatura científica, como o conceito de meia-vida de ocupação de receptores. Como um último resultado teórico, é proposto um algoritmo para a redução de dose em pacientes tratados com antipsicóticos apresentando sinais e sintomas extrapiramidais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A formulação de planejamentos e o direcionamento estratégico das empresas dependem da identificação e a previsão correta das mudanças emergentes no ambiente de negócios, o que torna a previsão de demanda um elemento chave na tomada de decisão gerencial. Um dos maiores problemas associados com o uso de previsões de demanda no apoio à tomada de decisões é a escolha do método de previsão a ser implementado. Organizações com necessidades e características distintas em relação aos seus produtos e serviços atuam em diferentes cenários de mercado. Diferentes cenários necessitam de diferentes métodos de previsão, de forma a refletir mudanças na estrutura do mercado (como entrada de novos produtos, novos competidores e/ou mudanças no comportamento dos consumidores). Assim, uma metodologia que direcione diferentes métodos de previsão de demanda para as situações em que são mais eficientes pode auxiliar o processo preditivo e de tomada de decisões das organizações, minimizando erros de planejamentos estratégico, tático e operacional. Esta dissertação apresenta uma metodologia de seleção de métodos de previsão de demanda mais apropriados para diferentes situações. Métodos de integração de métodos qualitativos e quantitativos de previsão melhoram a acurácia nos processo preditivos e também são abordados na metodologia de seleção de métodos de previsão. A metodologia proposta é ilustrada através de dois estudos de caso. No primeiro estudo investigou-se o caso de um produto com demanda regular. No segundo estudo, detalhou-se o processo de previsão para um cenário de lançamento de um novo produto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A maioria dos métodos de síntese e sintonia de controladores, bem como métodos de otimização e análise de processos necessitam de um modelo do processo em estudo. A identificação de processos é portanto uma área de grande importância para a engenharia em geral pois permite a obtenção de modelos empíricos dos processos com que nos deparamos de uma forma simples e rápida. Mesmo não utilizando leis da natureza, os modelos empíricos são úteis pois descrevem o comportamento específico de determinado processo. Com o rápido desenvolvimento dos computadores digitais e sua larga aplicação nos sistemas de controle em geral, a identificação de modelos discretos foi amplamente desenvolvida e empregada, entretanto, modelos discretos não são de fácil interpretação como os modelos contínuos pois a maioria dos sistema com que lidamos são de representação contínua. A identificação de modelos contínuos é portanto útil na medida que gera modelos de compreensão mais simples. A presente dissertação estuda a identificação de modelos lineares contínuos a partir de dados amostrados discretamente. O método estudado é o chamado método dos momentos de Poisson. Este método se baseia em uma transformação linear que quando aplicada a uma equação diferencial ordinária linear a transforma em uma equação algébrica evitando com isso a necessidade do cálculo das derivadas do sinais de entrada e saída Além da análise detalhada desse método, onde demonstramos o efeito de cada parâmetro do método de Poisson sobre o desempenho desse, foi realizado também um estudo dos problemas decorrentes da discretização de sinais contínuos, como por exemplo o efeito aliasing decorrente da utilização de tempos de amostragem muito grandes e de problemas numéricos da identificação de modelos discretos utilizando dados com tempos de amostragem muito pequenos de forma a destacar as vantagens da identificação contínua sobre a identificação discreta Também foi estudado um método para compensar a presença de offsets nos sinais de entrada e saída, método esse inédito quando se trata do método dos momentos de Poisson. Esse trabalho também comprova a equivalência entre o método dos momentos de Poisson e uma metodologia apresentada por Rolf Johansson em um artigo de 1994. Na parte final desse trabalho são apresentados métodos para a compensação de erros de modelagem devido à presença de ruído e distúrbios não medidos nos dados utilizados na identificação. Esses métodos permitem que o método dos momentos de Poisson concorra com os métodos de identificação discretos normalmente empregados como por exemplo ARMAX e Box-Jenkins.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo principal deste trabalho é propor uma metodologia de classificação de imagens de sensoriamento remoto que integre a importância de atributos de textura na seleção de feições, através da utilização de freqüências espaciais de cada classe textural e sua direção, com a eficiência das redes neurais artificiais para classificá-las. O processo é composto por uma etapa de filtragem baseada nos filtros de Gabor, seguida de uma fase de classificação através de uma rede neural Multi-Layer Perceptron com algoritmo BackPropagation. A partir da transformada de Fourier são estimados os parâmetros a serem utilizados na constituição dos filtros de Gabor, adequados às freqüências espaciais associadas a cada classe presente na imagem a ser classificada. Desta forma, cada filtro gera uma imagem filtrada. O conjunto de filtros determina um conjunto de imagens filtradas (canais texturais). A classificação pixel a pixel é realizada pela rede neural onde cada pixel é definido por um vetor de dimensionalidade igual ao número de filtros do conjunto. O processo de classificação através da rede neural Multi-Layer Perceptron foi realizado pelo método de classificação supervisionada. A metodologia de classificação de imagens de sensoriamento remoto proposta neste trabalho foi testada em imagens sintética e real de dimensões 256 x 256 pixels. A análise dos resultados obtidos é apresentada sob a forma de uma Matriz de Erros, juntamente com a discussão dos mesmos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste artigo testamos a hipótese de que estratégias que compram carteiras de ações perdedoras e vendem carteiras de ações vencedoras geram retornos anormais no Brasil. Esta evidência, obtida para o mercado americano para horizontes relativamente longos, foi interpretada por De Bondt e Thaler (1985) como sendo re‡exo de erros sistemáticos de avaliação no mercado de ações causados pelo excessivo pessimismo/otimismo dos agentes. Encontramos evidência de lucratividade de estratégias contrárias para horizontes de 3 meses a 3 anos, numa amostra de retornos de ações da BOVESPA e da SOMA de 1986 a 2000. A lucratividade das estratégias contrárias é inclusive maior para horizontes mais curtos, não havendo portanto nenhum indício do efeito “momentum” que foi detectado por Jagadeesh e Titman (1993) para os EUA para estes horizontes. A rentabilidade das estratégias contrárias sobrevive a correções por risco, tamanho e liquidez.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The concept of stochastic discount factor pervades the Modern Theory of Asset Pricing. Initially, such object allows unattached pricing models to be discussed under the same terms. However, Hansen and Jagannathan have shown there is worthy information to be brought forth from such powerful concept which undelies asset pricing models. From security market data sets, one is able to explore the behavior of such random variable, determining a useful variance bound. Furthermore, through that instrument, they explore one pitfall on modern asset pricing: model misspecification. Those major contributions, alongside with some of its extensions, are thoroughly investigated in this exposition.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com a entrada do regime cambial flutuante no Brasil a partir de 1999, o mercado de derivativos cambiais se desenvolveu muito. A crescente demanda das empresas e instituições financeiras pelos produtos de hedge cambial junto a um novo panorama econômico mundial foram as causas desse desenvolvimento. Esse trabalho procura encontrar tendências para o mercado de derivativos cambiais brasileiro estimando parâmetros através de regressões entre séries não-estacionárias, porém cointegradas. E utilizado o modelo de correção de erros para fazer as previsões. Os resultados mostram que o crescimento do mercado ocorre em função da corrente de comércio exterior e PIB, que os produtos mais utilizados para operações de curto e longo prazos tendem a ser o dólar futuro e as opções cambiais e que, no futuro, algumas outras moedas terão participação significativa no mercado brasileiro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O conceito de confiança tem sido introduzido em estudos empíricos sobre marketing no Brasil a partir do referencial teórico adotado principalmente nos Estados Unidos e Europa. A presente dissertação examina a confiança, tanto no vendedor como na empresa, e o valor e a qualidade do produto percebidos pelos clientes como fatores que afetam a satisfação em compras de valor, tal como a compra de um imóvel residencial na planta. O estudo se baseia nos artigos de Santos (2001), sobre o impacto do gerenciamento de reclamações sobre confiança e lealdade do consumidor, e de Doney e Cannon (1997) sobre a confiança no relacionamento entre empresas e seus vendedores. O estudo empírico trata de um levantamento de corte transversal, no qual foram testadas hipóteses específicas para examinar as relações entre as variáveis, em um processo de pesquisa formal e estruturado, com uma amostra de 270 clientes. Os dados foram coletados a partir da base de clientes de duas empresas brasileiras fortes nos segmentos em que atuam, uma corretora de imóveis e outra incorporadora/construtora, ambas sediadas na cidade de São Paulo. A análise dos dados foi feita com base no Modelo de Equações Estruturais (SEM), através do software Lisrel 8. Os resultados indicam que há confiança no corretor que está realizando a venda do imóvel, sendo que a satisfação com o corretor influencia esta confiança. No entanto, experiências anteriores com corretores de imóveis e características do corretor que realizou a venda não têm impacto sobre a confiança no corretor. Detectou-se também, que o valor do produto e a confiança na construtora percebidos pelo cliente têm influencia sobre a satisfação com a compra, mas não a qualidade percebida. Este estudo dá subsídios a futuras pesquisas sobre a confiança em compras de valor. São discutidas as limitações da pesquisa e as implicações de seus resultados para a gestão de marketing no Brasil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

o grande crescimento do mercado segurador no Brasil trouxe, ao longo dos últimos, dificuldades para as empresas se relacionarem adequadamente com seus clientes (corretores e segurados), obrigando-as a repensarem seus negócios. Nesse contexto, o comportamento do consumidor do mercado securitário de automóvel assume conotação especial e passa a ser questão obrigatória na busca da vantagem competitiva. Assim, o objetivo geral do presente estudo é estabelecer procedimentos entre o corretor, o segurado e a seguradora, com um plano de ação de fidelização para maximizar resultados para as empresas, a partir de estratégias de marketing de relacionamento, baseadas na tríade cliente, corretor e seguradora. Para tanto, utiliza-se de um levantamento teórico e empírico da realidade do setor de seguros de automóvel, apurada no estágio atual, e apresenta conceitos e ferramentas de marketing de relacionamento que, adaptadas, poderiam levar ao aumento dos valores alTecadados pelas seguradoras, com conquista de novos clientes e retenção dos atuais. Os resultados indicam que há inúmeras felTamentas de marketing de relacionamento passíveis de aplicabilidade no segmento de seguros de automóvel, como sugere o estudo de caso da filial Niterói da organização pesquisada, capazes de fazer com que as empresas do setor incrementem seu potencial de receita e maximizem seu relacionamento com os COlTetores e com os consumidores finais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta monografia é estudar padrões e formas de organização camponesa em sua relação com o Estado no projeto de assentamento de trabalhadores rurais na Zona da Mata de Pernambuco, no município de Vicência, no Governo de Marco Maciel, no período de 1979/1982. A proposta do Governo Marcos Marciel de distribuiçao de terra à famílias camponesas, objetivando melhoria de renda e de condiçoes de vida, proporcionar-lhes não correspondia historicamente às práticas da administração pública brasileira, mormente no período de vigência do Regime Militar, cujas políticas agrícolas e agrárias, formuladas de Brasília para o resto do país, voltaram-se para a modernização conservadora da agricultura e ocupação da fronteira agrícola, provocando a expulsão do camponês e sua proletarização, agravando suas já precárias condições de vida, com a perda da posse dos melOS de produção e sua sujeição ao recebimento, incerto e temporário, de um salário insuficiente ao atendimento de suas necessidades básicas de reprodução física e social. A modernização poderia ter sido feita de maneira diferente, por uma reforma agrária no campo que democratizasse a exploração da terra, proporcionando distribuição de renda. Entretanto, a opção por modelo de desenvolvimento agrícola nao é uma questão de escolha fundada na racionalidade econômica. Ao contrário é uma opção política, e enquanto tal, só pode ser desvendada à luz dos conflitos que permeiam a formação histórica da sociedade. De sorte que se pretende mostrar que o desenvolvimento agrícola brasileiro foi conduzido por um Estado que espelha a hegemonia das classes mais ricas, que até hoje mantêm os trabalhadores afastados, à margem dos benefícios proporcionados pelo desenvolvimento econômico do país. A ação do Estado está relacionada com o desenvolvimento do capitalismo no Brasil, cujas fases evoluíram de urna economia com características liberais para urna economia monopolista, resultando numa forma de Estado liberal e intervencionista. Numa ou noutra fase, assegura CARVALHO (1984), o Estado sempre teve um papel importante no controle das condiçoes de acumulaçao. A Agrovila da vitória é conseqüência da política agrária levada a efeito por esse Estado, como pretende-se revelar nesse trabalho, e que diz respeito a estrutura fundiária do país, ou seja, ao regime da posse e uso da terra. Portanto, todo o esforço da pesquisa foi realizado no sentido de revelar corno a administraçao pública tem agido de modo a possibilitar ou nao ao pequeno produtor rural o acesso à posse da terra e aos recursos para uma exploraçao econômica, elevando-lhes a qualidade de vida. Em que pese ter o Governo ter recorrido à participaçao dos trabalhadores no planejamento e implantaçao da Agrovila da Vitória, seus resultados nao lhes foram tao favoráveis na medida em que o interesse do grande proprietário foi preservado. As pequenas glebas em que se dividiram as terras do antigo latifúndio sao insuficientes para o sustento da família dos assentados, levando-os a continuarem dependendo de emprego temporário e do recebimento de salário, muitas vezes, inferior ao mínimo regional. Nao obstante, a concepçao do projeto da Agrovila da Vitória e a estratégia de sua implantaçao representam uma experiência que deve ser aproveitada pelos formuladores e gestores de programas dessa natureza, particularmente os trabalhadores, a quem mais interessa seu êxito, principalmente no sentido de evitarem a repetição dos erros e omissões cometidos. Entretanto, estes terao que resolver o problema que ocorre na Agrovila da Vitória, de falta de um instrumento político/institucional de mobilização de sua categoria na defesa de seus interesses, considerando que a atual forma de organização sindical não tem atuado a contento na luta pela posse e exploração da terra pelos pequenos produtores rurais.