1000 resultados para Época de aplicação


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Utilizando dados financeiros brasileiros da BM&F, testa-se a validade do modelo de valor presente na estrutura a termo de juros, também conhecido na literatura como Hipótese das Expectativas. Estes modelos relacionam a taxa de juros de longo prazo à uma média das taxas de juros de curto-prazo mais um prêmio de risco, invariante no tempo. Associada a estes modelos está a questão da previsibilidade dos retornos de ativos financeiros ou, mais especificamente, à previsibilidade na evolução das taxas de juros. Neste artigo é realizada uma análise multivariada num arcabouço de séries temporais utilizando a técnica de Auto-Regressão Vetorial. Os resultados empíricos aceitam apenas parcialmente a Hipótese das Expectativas para a estrutura a termo de juros brasileira.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho irá traçar um perfil dos negociadores chineses à luz de relatos de casos de negociações que ocorreram no mês de outubro de 2008, entre um grande importador de manufaturados brasileiro que chamaremos de “Empresa Brasileira” e empresas chinesas, das cidades de Guangzhou, Pinghu e Huanzhou. Levantaremos alguns aspectos da cultura chinesa traçando um paralelo com a Matriz de Negociações Complexas, daremos exemplos sucintos de etapas do processo negocial e procuraremos relacionar com alguns dos dez elementos da Matriz de Negociações Complexas, sendo estes Contexto, Interesses, Opções, Poder, Cognição, Relacionamento, Concessões, Conformidade Legal, Critério e Tempo, nas quatro etapas do processo associadas, quais sejam: preparação, criação de valor, distribuição e implementação/monitoramento. O autor irá destacar quais destes dez elementos propostos pela MNC são mais relevantes em um processo de negociação com os chineses e os aspectos culturais que fazem estes elementos ter maior relevância: Cognição/comunicação, Relacionamento e Tempo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo apresentar por meio de um exemplo prático a quantificação de Risco Operacional, utilizando um Modelo de Distribuição de Perdas Agregadas - LDA, Loss Distribution Approach - aplicado a riscos em instituições não financeiras. A idéia é mostrar como um método simples pode ser aplicado para realizar a gestão do risco operacional com foco em redução de perdas potenciais. O estudo faz uma breve análise sobre algumas técnicas que viabilizam a utilização de dados históricos e de julgamento de especialistas, e em seguida aprofunda-se em um método em que os especialistas inferem diretamente nos parâmetros das distribuições de freqüência e de severidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os métodos radiométricos (Rb-Sr e Sm-Nd) têm sido aplicados, com sucesso, em rochas sedimentares visando a obtenção de idades deposicionais e informações sobre proveniência. Em muitos casos, apesar dos resultados geologicamente significativos, ainda persistem dúvidas em relação a extensão e interpretação dos dados obtidos. Isto ocorre porque as rochas sedimentares resultam da mistura de fragmentos detríticos de diversas proveniências com diferentes sistemas isotópicos, conseqüentemente, já contendo um registro isotópico da rocha fonte. No caso do método Rb-Sr, aplicado em rochas sedimentares de granulometria fina, pode-se obter idades absolutas para o evento deposicional. Isto é viável desde que este registro isotópico proveniente das rochas fonte seja apagado no momento da deposição, ou seja, deve ocorrer a homogeneização isotópica do Sr no ambiente sedimentar. Para tanto, devem ser observados alguns pré-requisitos em relação a amostragem, granulometria, ambiente deposicional e composição mineralógica das amostras, entre outros. No entanto, ainda existem questionamentos em relação a esta metodologia especialmente quanto à ocorrência e à extensão do processo de homogeneização isotópica do Sr em ambiente sedimentar.(Continua0 O método Sm-Nd, apesar de ser uma técnica relativamente nova quando aplicada a rochas sedimentares, tem se tornado uma ferramenta fundamental para auxílio na determinação de proveniência de rochas sedimentares. As maiores dificuldades estão na correta interpretação dos valores obtidos e sua associação com um ambiente sedimentar, ou seja, de baixa temperatura. Neste trabalho, foram aplicados os métodos radiométricos Rb-Sr e Sm-Nd em amostras de rochas sedimentares coletadas em diferentes contextos geológicos da Bacia do Paraná. Foram tentativamente testados os diferentes parâmetros que atuam no sentido da homogeneização isotópica do Sr e do comportamento do Nd. Os resultados obtidos permitiram aprimorar a metodologia radiométrica Rb-Sr e Sm-Nd quando aplicada em rochas sedimentares, bem como obter resultados sobre a idade deposicional de diferentes unidades sedimentares e, por vezes, sua proveniência.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desde a antigüidade a medição do escoamento dos fluidos tem sido uma marca de nossa civilização, ajudando a predizer a fertilidade das terras e o consumo d’água em fontes e aquedutos. Nos nossos dias, a área de medição de fluxo está bem estabelecida e ainda desperta grande interesse nas linhas de pesquisa da mecânica dos fluidos experimental e computacional. Em particular, o estudo da medição de fluxo com elementos intrusivos, tais como placas de orifício, é de grande interesse dado o preço baixo do medidor, e sua boa precisão quando comparada à sua simplicidade de instalação e manutenção. Esta dissertação tem como objetivo o estudo da aplicação de elementos finitos aos escoamentos de fluidos viscosos - via aproximação clássica de Galerkin e Galerkin/mínimos-quadrados (GLS) – com particular ênfase na aproximação das equações de Navier-Stokes incompressível no escoamento newtoniano através de um canal obstruído por uma placa de orifício. Inicialmente, são apresentadas as dificuldades do método de Galerkin clássico na aproximação de escoamentos incompressíveis; ou seja, através da simulação de escoamentos viscosos bem conhecidos - como o escoamento no interior de uma cavidade e através de uma expansão súbita - fica evidenciada a restrição imposta pela condição de Babuška-Brezzi quando da escolha dos subespaços aproximantes do campo de velocidade e pressão Como alternativa às patologias do método de Galerkin clássico, esta dissertação emprega a metodologia de Galerkin/mínimos-quadrados na simulação acima mencionada da placa de orifício, a qual permite o uso de elementos de igual-ordem para aproximar velocidade e pressão e capturar de maneira estável escoamentos sujeitos a altos números de Reynolds. Os testes computacionais realizados se apresentaram fisicamente realistas quando comparados com a literatura e dados experimentais, sendo todos desenvolvidos no Laboratório de Mecânica dos Fluidos Aplicada e Computacional (LAMAC) do Departamento de Engenharia Mecânica da Universidade Federal do Rio Grande do Sul.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho aborda o desenvolvimento e aplicação de um sistema de visão para um robô industrial, dedicado a tarefas de manipulação. Para seu desenvolvimento, foi feita a integração de equipamentos comerciais de captação dedeo com um PC, onde é executada a análise das imagens. Os resultados são enviados ao controlador do robô através de um sistema de comunicação, sendo recebidos por um programa de manipulação que executa as tarefas. Como peça central do sistema de captura e processamento de imagens tem-se o programa RobVis, desenvolvido em linguagem Visual Basic e que tem a função principal de identificar a posição e orientação de objetos a serem manipulados pelo robô, que interpreta as imagens captadas por uma câmera dedeo do tipo CCD, ligada a uma placa de captura de imagens. Após definidas as variáveis de interesse, estas são transmitidas ao controlador do robô, através de um sistema de comunicação IRBCom, desenvolvido no Laboratório de Robótica da UFRGS. No controlador, um programa de manipulação escrito em linguagem Rapid, nativa do manipulador empregado, recebe as variáveis para execução da tarefa de captura de objetos em posições aleatórias e depósito em um ponto de descarga pré-definido. O sistema de visão desenvolvido caracteriza-se como de fácil implementação e aplicação em tarefas de manipulação robótica industrial que exijam a determinação da posição e orientação de objetos de trabalho dentro de uma porção do volume de trabalho do robô, coberta por um sistema de visão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho busca analisar os fundamentos teóricos do sistema de voucher educacional, o qual consiste no subsídio oferecido pelo Estado para o pagamento da escola desejada, pela família, para seus dependentes diretamente através deste vale, suas vantagens, desvantagens e características essenciais para uma boa modelagem. Relata estudos de caso para dois países da América Latina: Colômbia e Chile, comparando os resultados destes dois programas em termos abrangência e melhora da educação. Com base no Relatório de Monitoramento de Educação para Todos Brasil 2008 da Unesco analisa a atual situação do Brasil e os principais programas para melhoria e expansão da educação. Por último, apresenta um estudo de viabilidade do sistema de voucher, para o Rio de Janeiro, comparando a média dos gastos públicos em educação por aluno com as mensalidades de algumas escolas privadas da cidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho analisa os edifícios Jaguaribe e Esplanada a partir da descrição aprofundada dos objetos, da reconstrução do processo de projeto e do reconhecimento de premissas de concepção arquitetônica, relacionadas com o espírito do tempo e com o espírito do lugar. Baseado na idéia do desenvolvimento arquitetônico a partir de um precedente, o trabalho descreve os contextos internacional, regional e local e as características da arquitetura moderna praticada naquele momento, como referência para a desenvolvimento do edifício de apartamentos e a afirmação de um novo paradigma habitacional, a partir da aplicação do ideário modernista no tecido urbano tradicional de Porto Alegre, de forma ainda vinculada ao formato do lote.Considerando as características do momento, reflexo das transformações urbanas iniciadas pela industrialização, o trabalho situa os dois empreendimentos no sistema de produção e no processo de verticalização da cidade, com o desenvolvimento do apartamento. Desenvolvendo a noção de estilo modernista e fazendo analogias com outros edifícios da mesma época, o trabalho sintetiza um tipo comum, referenciado em obras paradigmáticas de mestres da Arquitetura Moderna. Analisando a materialização dos dois edifício, o trabalho verifica as soluções adotadas pela práxis modernista, na cidade tradicional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação objetiva avaliar como as empresas organizam sua estratégia para gestão do conhecimento. Basicamente dois modelos estratégicos são apresentados na literatura: a codificação e a personalização. No entanto, há uma questão que se apresenta na literatura que se refere à importância do foco prioritário em apenas um dos modelos estratégicos citados. Como objetivo principal, pretende-se apresentar uma escala que possa analisar se uma empresa líder em seu segmento realmente possui um foco estratégico com relação à gestão do conhecimento. Durante o desenvolvimento deste trabalho, será percorrido um referencial teórico que busca explicar como a gestão do conhecimento se tomou importante para a estratégia das empresas, tocando em pontos como características da Era da Informação e conceitos básicos da gestão do conhecimento, englobando modelos teóricos que buscam explicar como o conhecimento é criado e transferido dentro das empresas. Um modelo para mensuração do foco estratégico de uma empresa será proposto. Este modelo será composto de indicadores estruturados em forma de um questionário. Para cada indicador haverá uma escala de avaliação e o conjunto do questionário buscará traduzir o foco estratégico citado. Por fim, o questionário será testado em uma empresa de Propriedade Intelectual e serão feitas análises estatísticas para avaliação do mesmo. Para isto será utilizado o procedimento da análise fatorial do tipo confirmatória. Trata-se de uma ferramenta estatística que possibilita uma avaliação tanto do modelo de análise, quanto do modelo estrutural.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No início dos anos 90, o Brasil e a Grã-Bretanha, juntos, deram um passo, no sentido de produzir estudos microclimáticos dentro da área que compreende a floresta Amazônica, visando quantificar e verificar o impacto do desmatamento dessa floresta sobre o clima. Para isso escolheu-se três regiões para a instalação de estações meteorológicas automáticas de superfície (Estados do Amazonas, Pará e Rondônia). Cada região recebeu uma estação em uma área florestada e outra em área desmatada. Esse projeto binacional foi chamado de "ESTUDO ANGLO-BRASILEIRO DE OBSERVAÇÃO DO CLIMA DA AMAZONIA, (ABRACOS - Anglo-Braz11ian Amazonian Climate Observation Study)". Esse trabalho apresenta a aplicação de dois métodos de controle de qualidade para os dados coletados pelas estações meteorológicas automáticas de superfície. Um desses métodos leva em consideração o comportamento estatístico das variáveis coletadas, e o outro método o comportamento físico e climatológico das mesmas. Por último se faz o uso desses dados com e sem erros no cálculo da evapotranspiração, no sentido de se ver o impacto de uma informação errônea no cálculo de um parametro. O método estatístico demonstrou ter um bom potencial na detecção de erros pequenos (com tamanhos variando de 5 a 20%).(Continua). Esse método apresentou rendimentos na obtenção de erros que oscilam entre 43% e 80% para a radiação solar global. Quando se testou os valores da temperatura do ar e temperatura do bulbo úmido, obteve-se um dos melhores rendimentos do método estatístico, que chegou a 91%. Os piores desempenhos foram quando se testou a radiação refletida, alcançando-se apenas 11,1%. O método físico mostrou-se eficiente na detecção de erros maiores (30 a 90%). Os melhores desempenhos aconteceram quando se testaram as temperaturas. Em um caso o rendimento chegou a 100%. Em seu pior desempenho o método detectou apenas 20% (Teste" A" ). O método físico somente detectou informações suspeitas, dentro dos erros inseridos nas séries de dados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma nova rede de polímeros interpenetrantes (IPN) baseada em poliuretana de óleo de mamona e poli(etileno glicol) e poli(metacrilato de metila) foi preparada para ser utilizada como eletrólito polimérico. Os seguintes parâmetros de polimerização foram avaliados: massa molecular do poli(etileno glicol) (PEG), concentração de PEG e concentração de metacrilato de metila. As membranas de IPN foram caracterizadas por calorimetria diferencial de varredura (DSC) e espectroscopia de infravermelho por transformada de Fourier (FT-IR). Os eletrólitos de redes de polímeros interpenetrantes (IPNE) foram preparados a partir da dopagem com sal de lítio através do inchamento numa solução de 10% em massa de LiClO4 na mistura de carbonato de etileno e carbonato de propileno na razão mássica de 50:50. As IPNEs foram caracterizadas por espectroscopia de impedância eletroquímica e Raman. As IPNEs foram testadas como eletrólito polimérico em supercapacitores. As células capacitivas foram preparadas utilizando eletrodos de polipirrol (PPy). Os valores de capacitância e eficiência foram calculados por impedância eletroquímica, voltametria cíclica e ciclos galvonostáticos de carga e descarga. Os valores de capacitância obtidos foram em torno de 90 F.g-1 e eficiência variou no intervalo de 88 a 99%. Os valores de densidade de potência foram superiores a 250 W.kg-1 enquanto que a densidade de energia variou de 10 a 33 W.h.kg-1, dependendo da composição da IPNE. As características eletroquímicas do eletrólito formado pela IPN-LiClO4 (IPNE) foram comparadas aos eletrólitos poliméricos convencionais, tais como poli(difluoreto de vinilideno)-(hexafluorpropileno) ((PVDF-HFP/LiClO4) e poliuretana comercial (Bayer desmopan 385) (PU385/LiClO4). As condutividades na temperatura ambiente foram da ordem de 10-3 S.cm-1. A capacitância da célula utilizando eletrodos de PPy com eletrólito de PVDFHFP foi de 115 F.g-1 (30 mF.cm-2) e 110 F.g-1 (25 mF.cm-2) para a célula com PU385 comparadas a 90 F.g-1 (20 mF.cm-2) para a IPNE. Os capacitores preparados com eletrólito de IPNE apresentaram valores de capacitância inferior aos demais, entretanto provaram ser mais estáveis e mais resistentes aos ciclos de carga/descarga. A interpenetração de duas redes poliméricas, PU e PMMA produziu um eletrólito com boa estabilidade mecânica e elétrica. Um protótipo de supercapacitor de estado sólido foi produzindo utilizando eletrodos impressos de carbono ativado (PCE) e o eletrólito polimérico de IPNE. A técnica de impressão de carbono possui várias vantagens em relação aos outros métodos de manufatura de eletrodos de carbono, pois a área do eletrodo, espessura e composição são variáveis que podem ser controladas experimentalmente. As células apresentaram uma larga janela eletroquímica (4V) e valores da capacitância da ordem de 113 mF.cm-2 (16 F.g-1). Métodos alternativos de preparação do PCE investigados incluem o uso de IPNE como polímero de ligação ao carbono ativado, estes eletrodos apresentaram valores de capacitância similares aos produzidos com PVDF. A influência do número de camadas de carbono usadas na produção do PCE também foi alvo de estudo. Em relação ao eletrólito polimérico, o plastificante e o sal de lítio foram adicionados durante a síntese, formando a IPNGel. As células apresentaram alta capacitância e boa estabilidade após 4000 ciclos de carga e descarga. As membranas de IPN foram testadas também como reservatório de medicamento em sistemas de transporte transdérmico por iontoforese. Os filmes, mecanicamente estáveis, formaram géis quando inchado em soluções saturadas de lidocaina.HCl, anestésico local, em propileno glicol (PG), poli(etileno glicol) (PEG400) e suas misturas. O grau de inchamento em PG foi de 15% e 35% em PEG400. Agentes químicos de penetração foram utilizados para diminuir a resistência da barreira causada pela pele, dentre eles o próprio PG, a 2-pirrolidinona (E1) e a 1-dodecil-2-pirrolidinona (E2). Os géis foram caracterizados por espectroscopia de impedância eletroquímica e transporte passivo e por iontoforese através de uma membrana artificial (celofane). O sistema IPN/ lidocaina.HCl apresentou uma correlação linear entre medicamento liberado e a corrente aplicada. Os melhores resultados de transporte de medicamento foram obtidos utilizando o PG como solvente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A tendência atual de desenvolvimento de novos equipamentos geotécnicos combina diferentes técnicas, aliando a robustez do ensaio de cone às informações adicionais de outros ensaios. O cone sísmico constitui-se em exemplo típico adotado internacionalmente. Geofones ou acelerômetros podem ser incorporados ao fuste do cone para medida de velocidade de propagação de ondas de compressão e cisalhamento. O cone possibilita uma estimativa da resistência ao cisalhamento de materiais geotécnicos, enquanto as medias sísmicas permitem medir o módulo cisalhante a pequenas deformações. A combinação de valores de resistência e deformabilidade, expressa através da razão entre Go/qc, pode representar uma alternativa importante na caracterização de solos. Nesta dissertação o cone sísmico foi projetado, construído, calibrado e testado no depósito argiloso do Aeroporto Internacional Salgado Filho em Porto Alegre. O equipamento é composto de um módulo onde são acondicionados dois sensores (geofones), distantes de 1,0 m, para a captação das ondas de cisalhamento. Os sinais são captados e enviados para um pré-amplificador com filtro, acondicionado no módulo sísmico, sendo posteriormente conduzidos para um segundo amplificador cuja taxa de amplificação pode ser regulada. O sinal adquirido é armazenado em um computador para análise posterior O ensaio de cone sísmico consiste basicamente na geração de uma onda de cisalhamento na superfície do solo e seu armazenamento com o sistema de aquisição de sinais. A determinação do módulo de cisalhamento é feita através da teoria da elasticidade, medindo-se os tempos de chegada da onda de cisalhamento em cada geofone e calculando-se a velocidade de percurso da onda entre os dois sensores. O trabalho contempla o desenvolvimento do cone sísmico, montagem, calibração e aplicação na Área do Aeroporto Internacional Salgado Filho. Os resultados obtidos são comparados a resultados de ensaios de cross-hole existentes no referido local.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Concomitantemente à produção de etanol, a partir da fermentação de diferentes matérias-primas (cana-de-açúcar, beterraba, milho, trigo, batata, mandioca), produz-se a vinhaça. A vinhaça da cana-de-açúcar é gerada na proporção média de 12 litros para cada litro de etanol. O Brasil é o maior produtor mundial de cana-de-açúcar (570 milhões de toneladas, em 2009) com a produção de 27 bilhões de litros/ano de etanol, no ciclo 2009/2010, basicamente para fins carburantes, e, portanto, a quantidade de vinhaça produzida é da ordem de 320 bilhões de litros/ano. Dentre as possíveis soluções para a destinação da vinhaça, tais como: concentração, tratamento químico e biológico ou produção de biomassa, é sua aplicação no solo a forma mais usual de disposição. No entanto, sua aplicação no solo não pode ser excessiva nem indiscriminada, sob pena de comprometer o ambiente e a rentabilidade agrícola e industrial da unidade sucroalcooleira. A necessidade de medidas de controle sobre a aplicação de vinhaça no solo do Estado de São Paulo, que concentra a produção de 60% do etanol produzido no Brasil, levou à elaboração da Norma Técnica P4.231, em 2005. A constatação do cumprimento dos itens desta Norma é uma das ações do agente fiscalizador, no monitoramento da geração e destinação da vinhaça pelos empreendimentos produtores de etanol. Os itens 5.7.1 e 5.7.2, desta Norma, tornam obrigatório o encaminhamento à CETESB (Companhia Ambiental do Estado de São Paulo), para fins de acompanhamento e fiscalização, até o dia 02 de abril de cada ano, o PAV (Plano de Aplicação de Vinhaça). Com o intuito de proporcionar melhor entendimento da Norma P4.231, contribuir para otimização de sua aplicabilidade e melhoria e perceber a realidade prática da aplicação da vinhaça, foram analisados PAVs protocolados na Agência Ambiental de Piracicaba, licenças concedidas, processos de licenciamento e realizadas vistorias a campo. Conclui-se que a Norma P4.231 representa um avanço no gerenciamento do uso da vinhaça no Estado de São Paulo, por disciplinar a disposição de vinhaça no solo, tornando obrigatórios: demarcações de áreas protegidas e núcleos populacionais, caracterização de solo e da vinhaça, doses máximas a serem aplicadas, estudos da geologia e hidrogeologia locais, monitoramento das águas subterrâneas, impermeabilização de tanques e dutos. Estabelece critérios a serem obedecidos por lei, e todos são condutas de boas práticas de proteção ao meio, que repercutem em maior rentabilidade agrícola e industrial. A Norma P4.231 é bem elaborada, complexa e extensa, o que a torna de difícil execução. Para facilitar sua aplicabilidade, sugere-se o estabelecimento de um cronograma de prioridades: impermeabilização dos tanques e dutos, drenos testemunha com funcionamento otimizado e boa caracterização do que está sendo aplicado, se vinhaça pura ou se misturada a águas residuárias. Das oito empresas deste estudo, apenas quatro (as maiores) vêm protocolando os PAVs com regularidade, desde 2005. As informações apresentadas foram incompletas e, em alguns casos, precárias. Mesmo com lacunas, os dados fornecidos, desde o início da obrigatoriedade do PAV, foram de utilidade para esboçar o perfil da atividade sucroalcooleira na região estudada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Gerenciar performance é um dos pilares para a conquista de bons resultados e, consequentemente do sucesso tão almejado. A capacidade de adaptação da estratégia às constantes mudanças do ambiente passa a ser uma necessidade. Quanto mais as organizações vêem a concorrência e a expectativa de seus clientes aumentarem, mais percebem a importância da execução da estratégia em relação à definição de estratégia para obter vantagem competitiva sustentável. Assim, a gestão de desempenho tornou-se um processo fundamental para empresas líderes. A maioria das empresas realiza altos investimentos em processos e tecnologias desenhados para melhorar o desempenho individual e seus resultados. Entretanto, grande parte das organizações não gerencia e muito menos direcionam a performance. A ineficiência está presente em quase todos os processos. Há diversos objetivos estabelecidos que resultam inconsistências e até conflitos entre diferentes departamentos e até unidades de negócios. Uma abordagem coerente em toda a empresa para a gestão de desempenho é a chave para evitar essas ineficiências. A gestão de desempenho deve ser um processo de comunicação permanente, com atividades realizadas em parceria por gestores e funcionários que visam assegurar que as metas estão constantemente sendo atendidas de forma eficaz, eficiente e alinhadas ao negócio. Esta abordagem será aplicada numa empresa que atua no setor financeiro brasileiro. É apresentada, neste trabalho, a implantação do processo de gestão de desempenho unificado, com suas principais etapas, dificuldades e barreiras.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Brasil possui um dos mercados de serviços de comunicação e mídia que mais cresce no mundo. Grande parte deste crescimento pode ser atribuída à evolução tecnológica e às recentes alterações no ambiente competitivo, os quais favoreceram a convergência de serviços antes vendidos separadamente - voz, dados e TV. Isto elevou a atratividade destes serviços, contribuindo também para a redução de seu preço, por meio, principalmente, dos ganhos de escala, impulsionando seu crescimento. Este crescimento atraiu mais competidores ao mercado, o que, intensificado por mudanças regulatórias, eleva a importância da correta precificação dos pacotes de serviços. Portanto, um entendimento apropriado dos atributos mais valorizados pelos consumidores no processo decisório de compra destes serviços é de fundamental importância para melhorar a alocação dos recursos e maximizar o retorno, sem perda de participação de mercado. Este trabalho aplica a Metodologia de Preços Hedônicos como ferramenta para auxiliar na identificação dos atributos relevantes dos pacotes de serviços multimídia comercializados no mercado da cidade de São Paulo e seus respectivos preços implícitos. São 371 pacotes distintos contendo de um a três tipos diferentes de serviços analisados com base nos preços praticados em março de 2009. Como resultado, foram identificados intensos prêmios de preço associados aos canais do grupo Telecine, aos canais esportivos, infantis e de filmes e séries, bem como às variáveis ligadas às velocidades de download e upload.