993 resultados para quantidade
Resumo:
Este documento constitui-se em uma dissertação de mestrado, requisito parcial para a obtenção do grau de Mestre em Gestão Empresaria e Pública. Este estudo procura mostrar que a adoção dessa nova tecnologia através de projetos de implantação de sistema de ERP não só mudam processos administrativos como também produtos, serviços e estruturas organizacionais e que a sua implantação se constitui em um grande projeto que envolve um número considerável de recursos e tempo das organizações. Este estudo procurar mostrar também que os impactos que tais projetos trazem, são mais fortemente sentidos ou não pela organização de acordo com uma série de fatores, entre eles, a resistência à mudança e o quanto a organização está preparada para enfrentar essas mudanças, o medo da perda do emprego pela adoção de uma nova tecnologia, problemas com a falta de comunicação das mudanças, questões relacionadas à cultura organizacional vigente, a falta de envolvimento da alta administração, entre outras. Para gerenciar todas essas variáveis, as organizações modernas adotam técnicas para garantir o sucesso da implantação dessas novas tecnologias. o estudo aqui proposto tem como objetivo determinar até que ponto a utilização de metodologias e de técnicas de Project Management é o suficiente para que esses projetos alcancem o sucesso esperado pelas organizações. A quantidade de variáveis que influenciam o resultado de um projeto são muitas e cada uma delas possui um papel importante que deve ser avaliado. As conclusões desta pesquisa demonstram que o sucesso de um projeto nem sempre se resume a atingir os objetivos inicialmente propostos, relativos ao cumprimento do prazo, escopo e custo de um projeto, conforme define a metodologia de Project Management. Outros aspectos considerados por essa metodologia, se melhor ou pior aplicados, também contribuem para o sucesso ou fracasso de um projeto de implantação de um sistema de ERP sendo o seu fracasso traduzido ou não, no cumprimento do prazo, do escopo inicialmente previsto ou no custo inicialmente calculado. Outros aspectos que não apenas a aplicação correta da metodologia de Project Management contribuem para os resultados alcançados pelo projeto.
Resumo:
Em razão dos avanços tecnológicos e do aumento da expectativa média de vida da população, entre outros fatores, os gastos na área da saúde vêm crescendo significativamente, no Brasil. Se de um lado as operadoras de planos de saúde reajustam seus valores para fazer frente ao aumento dos custos, levando seus contratantes e beneficiários a reclamarem da elevação de preços, de outro lado os médicos prestadores de serviços parecem insatisfeitos com seus honorários. Surge então um impasse, ainda pouco estudado, que a presente Dissertação procura enfrentar. Com base em ampla pesquisa bibliográfica e também em entrevistas realizadas com dirigentes e lideranças da área de saúde suplementar, apresentam-se, primeiramente o perfil do setor e as formas principais de remuneração do trabalho médico em nosso país. Discutem-se, em seguida, os resultados da pesquisa, dando voz a representantes das operadoras e da classe médica. Dentre os principais achados da pesquisa qualitativa, destacam-se: a predominância do modelo de remuneração por procedimento ou fee for service; críticas generalizadas a respeito da ênfase que a remuneração por procedimento coloca na quantidade, e não na qualidade; a expectativa de que se desenvolvam modelos capazes de avaliar o desempenho dos médicos e os resultados da atenção à saúde. O desenvolvimento desse novo modelo de remuneração traria benefícios, não apenas econômicos, contanto que a construção dos indicadores de resultado e de qualidade possam ser feitos com a participação de todos os atores, inclusive dos médicos. Só assim chegaremos a um modelo remuneratório que reduza os procedimentos (e os gastos) desnecessários, priorize a qualidade dos serviços, otimize os resultados e melhore os índices de satisfação de todos os envolvidos na cadeia da saúde.
Resumo:
Este trabalho teve como objetivo identificar o impacto do risco de liquidez nos retornos excedentes esperados das debêntures no mercado secundário brasileiro. Foram realizadas análises de regressão em painel desbalanceado com dados semestrais de 101 debêntures ao longo de oito semestres (primeiro semestre de 2006 ao segundo semestre de 2009), totalizando 382 observações. Sete proxies (Spread de Compra e Venda, %Zero Returns, Idade, Volume de Emissão, Valor Nominal de Emissão, Quantidade Emitida e %Tempo) foram utilizadas para testar o impacto do risco de liquidez nos yield spreads das debêntures. O yield spread foi controlado por até dez outras variáveis determinantes que não a liquidez (Fator Juros, Fator Crédito, Taxa Livre de Risco, Rating, Duration, quatro variáveis contábeis e Volatilidade de equity). A hipótese nula de que não há prêmio de liquidez para o mercado secundário de debêntures no Brasil foi rejeitada apenas para três das sete proxies (Spread de Compra e Venda, Valor Nominal de Emissão e Quantidade Emitida). Os prêmios encontrados são bastante baixos (1,9 basis point para cada 100 basis point de incremento no Spread de Compra e Venda, 0,5 basis point para um aumento de 1% no valor do Valor Nominal de Emissão e 0,17 basis point para cada menos 1000 debêntures emitidas), o que vai ao encontro dos resultados encontrados por Gonçalves e Sheng (2010). De qualquer forma houve perda da eficiência das proxies de liquidez após correção das autocorrelaçôes e potenciais endogeneidades, seja através da inclusão de efeitos fixos, da análise em primeiras diferenças ou da utilização de um sistema de três equações.
Resumo:
Com o crescimento populacional, a indústria avícola tem se desenvolvido rapidamente, devido à demanda de alimentos. O seu produto possui grande aceitação no mercado mundial, em função do seu valor nutricional e por não existirem restrições culturais. Entretanto, este alimento gera grande quantidade de resíduos, dentre eles, as penas. Elas são compostas principalmente por queratina, substância de difícil degradação. Neste trabalho foram utilizadas duas bactérias queratinolíticas de resíduos da indústria avícola, para se avaliar a capacidade de degradação das mesmas. Foram produzidos hidrolisados de penas por proteólise bacteriana com ambos microrganismos: Bacillus cereus (KR16) e Chryseobacterium sp. (KR6). O crescimento das bactérias em diferentes quantidades de penas, e o fator de degradação das penas comprovaram que em até 5 % obteve-se degradação para KR6, enquanto, para a KR16, obteve-se degradação até 1%. A digestibilidade in vitro dos hidrolisados foi avaliada. Observou-se que o hidrolisado da bactéria KR6 apresentou maior digestibilidade, enquanto o de farinha de penas apresentou o menor valor. A composição de aminoácidos dos hidrolisados foi determinada, sendo observadas baixas concentrações de metionina, histidina e lisina. A partir da digestibilidade in vitro e da composição de aminoácidos, foram calculados o escore de aminoácidos corrigidos (PDCAAs), o coeficiente de eficiência protéica (PER) e o valor biológico (BV). O tratamento das penas com KR6 resultou em hidrolisados com os valores mais altos de PDCAAs, PER e BV, sugerindo que este microrganismo produz hidrolisados com propriedades nutricionais superiores aos demais.
Resumo:
Este trabalho relata a síntese de uma série de novos ligantes quirais (+) e (-)-syn-1,3-aminoálcoois derivados do norbornano. Através da reação de transesterificação enzimática com a lípase da Candida rugosa em acetato de vinila do álcool racêmico 7,7-dimetoxi-1,4,5,6-tetraclorobiciclo[2.2.1]heptan-5-en-2-ol, (±)-3, foram obtidos os álcoois quirais (+)-3 e (-)-3 (Esquema 1). Através da reação de redução e descloração destes álcoois com Na0/NH3/etanol foram obtidos os respectivos álcoois (+)-4 e (-)-4 (Esquema 2). Os álcoois quirais (+)-4 e (-)-4 foram utilizados como produtos de partida para a síntese dos 1,3-aminoálcoois quirais (+)-9 e (-)-9 em 5 etapas. Deste modo, a partir destes aminoálcoois (9), foi possível sintetizar 12 novos compostos (Esquema 2), todos inétidos na literatura. Os 1,3-aminoálcoois 10, 11, 13, 14 e 15 foram empregados como catalisadores quirais na adição enantiosseletiva de ZnEt2 ao benzaldeído. Excelentes rendimentos e excessos enantioméricos (até 91%) foram obtidos. A relação entre a configuração absoluta do 1-fenilpropanol com a configuração do carbono ligado ao grupo hidroxila dos ligantes foi estudada e, de acordo, com a enantiosseletividade observada foi sugerido um mecanismo para a reação Os produtos com esqueleto ciclopentila são importantes compostos com potencial atividade biológica, fazendo parte da estrutura de prostaglandinas, agentes antitumorais e inibidores da glicosidase. Portanto, nós decidimos usar o acetato clorado quiral 2 para preparar ciclopentanóides quirais altamente funcionalizados. Para isso, o acetato clorado quiral 2 foi submetido à oxidação usando uma quantidade catalítica de RuCl3 anidro na presença de NaIO4 obtendo-se a dicetona 16 (Esquema 3). A dicetona 16 foi clivada com H2O2 em meio alcalino fornecendo os diácidos 17a e 17b, que foram esterificados in situ com excesso de CH2N2 para fornecer uma mistura do hidroxi e acetoxi diéster 18 e 19, respectivamente. A redução da mistura 18 e 19 ou da mistura 17a e 17b com BH3.THF fornece a lactona 20 com excelentes rendimentos.
Resumo:
Argumenta-se na contemporaneidade que o trabalho adquiriu a possibilidade de ser realizado “a qualquer hora e em qualquer lugar” e que, particularmente, pode ser realizado em movimento, enquanto a pessoa que trabalha desloca-se de um lugar a outro. Este estudo investiga esse último, o trabalho móvel; em especial, aquele que envolve o uso de tecnologias de informação e comunicação e realizado enquanto a pessoa que trabalha desloca-se por meio do sistema de transporte aéreo. Este projeto explora, especificamente, o desempenho de espaço-tempos de trabalho em terminais de aeroportos e em aviões. Para tanto, adota a abordagem teórico-metodológica Teoria Ator-Rede que considera o social um movimento de associações entre elementos heterogêneos e os espaço-tempos, incluindo aqueles de trabalho, efeitos de modos como humanos e não humanos relacionam-se entre si. A estratégia metodológica envolveu uma combinação de observação de campo, auto-observação e entrevistas com pessoas que vivem a experiência do trabalho móvel. A coleta de dados compreendeu: (a) horas de observação de pessoas e situações, em alguns terminais de aeroportos no Brasil e em voos entre a cidade de São Paulo e outras capitais do país, e (b) entrevistas semiestruturadas com pessoas que, com certa frequência, deslocam-se para trabalhar por meio do sistema de transporte aéreo. Como resultado, este estudo contribui para as análises sobre o fenômeno do trabalho móvel, realizado em aeroportos e aviões, e destaca: os atores envolvidos, bem como os agentes que levam esses atores a agir; a quantidade de objetos ativos na manifestação do fenômeno; e as controvérsias envolvidas com o tema. Além disso, aponta elementos empíricos (i) que revelam lugares em que os fenômenos de trabalho móvel se manifestam esporadicamente, de modo disperso, como “bolhas”, e (ii) que se contrapõem à ideia que é possível trabalhar “a qualquer hora e em qualquer lugar”. As contribuições deste estudo ecoam resultados de pesquisas desenvolvidas sobre trabalho móvel, assim como apresentam particularidades, como a metáfora da bolha, amplificações de aspectos pouco presentes nos textos sobre o tema e elementos peculiares do trabalho móvel investigado no espaço-tempo da pesquisa
Resumo:
Concomitantemente à produção de etanol, a partir da fermentação de diferentes matérias-primas (cana-de-açúcar, beterraba, milho, trigo, batata, mandioca), produz-se a vinhaça. A vinhaça da cana-de-açúcar é gerada na proporção média de 12 litros para cada litro de etanol. O Brasil é o maior produtor mundial de cana-de-açúcar (570 milhões de toneladas, em 2009) com a produção de 27 bilhões de litros/ano de etanol, no ciclo 2009/2010, basicamente para fins carburantes, e, portanto, a quantidade de vinhaça produzida é da ordem de 320 bilhões de litros/ano. Dentre as possíveis soluções para a destinação da vinhaça, tais como: concentração, tratamento químico e biológico ou produção de biomassa, é sua aplicação no solo a forma mais usual de disposição. No entanto, sua aplicação no solo não pode ser excessiva nem indiscriminada, sob pena de comprometer o ambiente e a rentabilidade agrícola e industrial da unidade sucroalcooleira. A necessidade de medidas de controle sobre a aplicação de vinhaça no solo do Estado de São Paulo, que concentra a produção de 60% do etanol produzido no Brasil, levou à elaboração da Norma Técnica P4.231, em 2005. A constatação do cumprimento dos itens desta Norma é uma das ações do agente fiscalizador, no monitoramento da geração e destinação da vinhaça pelos empreendimentos produtores de etanol. Os itens 5.7.1 e 5.7.2, desta Norma, tornam obrigatório o encaminhamento à CETESB (Companhia Ambiental do Estado de São Paulo), para fins de acompanhamento e fiscalização, até o dia 02 de abril de cada ano, o PAV (Plano de Aplicação de Vinhaça). Com o intuito de proporcionar melhor entendimento da Norma P4.231, contribuir para otimização de sua aplicabilidade e melhoria e perceber a realidade prática da aplicação da vinhaça, foram analisados PAVs protocolados na Agência Ambiental de Piracicaba, licenças concedidas, processos de licenciamento e realizadas vistorias a campo. Conclui-se que a Norma P4.231 representa um avanço no gerenciamento do uso da vinhaça no Estado de São Paulo, por disciplinar a disposição de vinhaça no solo, tornando obrigatórios: demarcações de áreas protegidas e núcleos populacionais, caracterização de solo e da vinhaça, doses máximas a serem aplicadas, estudos da geologia e hidrogeologia locais, monitoramento das águas subterrâneas, impermeabilização de tanques e dutos. Estabelece critérios a serem obedecidos por lei, e todos são condutas de boas práticas de proteção ao meio, que repercutem em maior rentabilidade agrícola e industrial. A Norma P4.231 é bem elaborada, complexa e extensa, o que a torna de difícil execução. Para facilitar sua aplicabilidade, sugere-se o estabelecimento de um cronograma de prioridades: impermeabilização dos tanques e dutos, drenos testemunha com funcionamento otimizado e boa caracterização do que está sendo aplicado, se vinhaça pura ou se misturada a águas residuárias. Das oito empresas deste estudo, apenas quatro (as maiores) vêm protocolando os PAVs com regularidade, desde 2005. As informações apresentadas foram incompletas e, em alguns casos, precárias. Mesmo com lacunas, os dados fornecidos, desde o início da obrigatoriedade do PAV, foram de utilidade para esboçar o perfil da atividade sucroalcooleira na região estudada.
Resumo:
A rápida expansão da cultura da cana-de-açúcar, essencialmente ocorrida a partir de 2004, tanto no Estado de São Paulo, um dos mais tradicionais e mais bem localizado do país, em termos de logística e proximidade de grandes centros consumidores, bem como em outros não tão privilegiados, levantou diversas discussões sobre a sustentabilidade do setor e eventual avanço em terras que, direta e indiretamente, prejudicariam a produção de alimentos no país. Esse evento desencadeou uma rápida reorganização do setor, através de sua principal entidade representativa, a UNICA, e, fundamentalmente, iniciou um processo irreversível de profissionalização e consolidação de grandes grupos com o intuito de crescimento e fortalecimento para fazer frente aos desafios da “comoditização” integral de seus produtos: o açúcar e o etanol. Nesse âmbito, após implementações de projetos como o “Protocolo Etanol Verde” e o “Zoneamento Agroambiental para o Setor Sucroalcooleiro do Estado de São Paulo”, e posteriormente o “Zoneamento Agro-Ecológico da Cana-de-Açúcar”, no Brasil, e divulgação da “RFS2 – Renewable Fuel Standard 2”, nos Estados Unidos, os quais podem ser considerados pontos fundamentais para a indicação de que o setor deveria evoluir, seja via sócio-ambiental, ou através da oportunidade de crescimento do mercado externo (EUA), sem esquecer a crescente frota de veículos flex-fuel no Brasil, e tenta evoluir a passos largos, evidentemente que com maior enfoque e investimento tecnológico nos Estados Unidos, no sentido de obter maior produtividade industrial, com a mesma quantidade de área de cana plantada, o que atenderia aos dois apelos: o de sustentabilidade e o de abertura de mercado. O etanol de segunda geração é o assunto central, e de maior expectativa atualmente, para a esperada evolução de um dos setores de maior crescimento e participação na economia brasileira. As pesquisas de laboratório demonstram viabilidade produtiva do etanol de segunda geração, através da hidrólise do material celulósico, mas os grandes problemas estão relacionados à ausência de plantas com escala de produção comercial, elevado tempo de processamento (hidrólise enzimática) e deterioração de equipamentos envolvidos no processo (hidrólise ácida), além da necessidade de melhores estudos, para entendimento da substituição do bagaço pela palha da cana-de-açúcar, no processo de geração de energia elétrica nas unidades industriais. Este trabalho demonstrou, considerando suas limitações e parâmetros, que a viabilidade econômica para o etanol de segunda geração está um pouco distante de ser atingida e depende do preço futuro do etanol. O rendimento adicional de 85% (oitenta e cinco por cento) de litros de etanol, por tonelada de cana processada, e o preço de R$ 800 (oitocentos reais) o metro cúbico, são dados de entrada em tese factíveis de serem obtidos para geração de lucro líquido, mas não para o VPL. As incógnitas são a velocidade do desenvolvimento da planta de grande escala de produção e comportamento de preços diante das perspectivas analisadas. Diante dos resultados obtidos e do exposto, há a clara possibilidade de autoafirmação do setor que, após décadas de insucessos, como o do Proálcool, e críticas às suas políticas de sustentabilidade (sócio-ambiental), vislumbra um cenário promissor para a perpetuação de sua hegemonia e vanguarda na produção de biocombustível (etanol), alimento (açúcar) e energia elétrica.
Resumo:
Nos últimos anos, a expansão do consumo de açúcar e, principalmente, etanol, tem feito com que a área cultivada com cana-de-açúcar cresça em um ritmo bastante acelerado. A utilização de herbicidas nas áreas de cana é uma importante ferramenta no combate a plantas daninhas, reduzindo as perdas de produtividade de maneira eficiente e economicamente viável. O objetivo do presente trabalho foi estudar o comportamento do uso de herbicidas mediante a expansão da cultura, buscando (i) avaliar a evolução do mercado de herbicidas na cultura, considerando os níveis de adoção, área tratada, tamanho do mercado em valor e principais plantas controladas; (ii) analisar a evolução dos custos por hectare com herbicidas; (iii) identificar os principais mecanismos de ação dos produtos utilizados, e (iv) avaliar se houve aumento no volume de produtos aplicados por hectare. Para isso, foram utilizados dados de pesquisas de mercado realizadas entre os anos de 2004 e 2009 junto a usinas de açúcar e álcool. As informações foram coletadas através de questionários estruturados e tratadas estatisticamente para se chegar ao mercado real extrapolado. Desse estudo, pôde-se concluir que houve aumento na área de cana tratada com herbicida e do mercado em valor, crescimento esse fundamentado na ampliação da área de produção, uma vez que a taxa de adoção sofreu leve aumento; Já o custo por hectare, após alguns anos de estabilidade, sofreu redução na última safra; Em relação aos mecanismos de ação, o principal grupo utilizado é o dos inibidores da fotossíntese II. Entretanto, proporcionalmente, os segmentos que apresentaram maior aumento na participação de mercado foram os grupos inibidores da síntese de caroteno, inibidores da PROTOX e inibidores da divisão celular. O único grupo que sofreu decréscimo em termos de área aplicada foi o dos inibidores da fotossíntese I; Mesmo com o aumento no volume total de produtos utilizados, não é possível afirmar que há tendência de aumento ou redução na quantidade aplicada por hectare.
Resumo:
Este trabalho estuda a formação dos Bookbuildings em emissões de ações no Brasil, também conhecidos como “Livro de Ofertas”, o último e mais importante estágio de um processo de IPO. Testam-se hipóteses de assimetria de informação, monitoramento e liquidez e conflito de interesse para o caso brasileiro em um conjunto de 18 emissões, todas oriundas de IPO’s emitidos no mercado de capitais brasileiro, sob a ótica das 5 variáveis mais significativas: Tipo de Investidor – curto e longo-prazo; Nacionalidade – Investidores dos Estados Unidos e locais; Participações em ofertas; Tamanho das ofertas; e Preço das emissões. O nosso banco de dados analisa todas as 209 operações de listagem primária e secundária dos últimos 7 anos, desde 2004, na Bovespa. São 209 ofertas públicas. Aprofundamo-nos em 18 delas, das quais possuímos todas as informações de formação de livro de ofertas. Demonstrou-se que em todas essas 18 ofertas o volume de ofertas feitas por investidores estrangeiros de fato “ancorou” as operações (representando mais do que 67% das ordens dos livros), fato que teve uma função muito importante, de “sinalizar” a força das determinadas ofertas em termos de demanda. Das 18 operações, o livro de ofertas de 39% excedeu mais do que 3 vezes a quantidade ofertada pela empresa issuer ao mercado. Em 56% dos casos, a demanda foi maior do que o dobro do número de ações oferecidas pelo issuer. Em 72% dos casos, a demanda excedeu a oferta em pelo menos 50%. A média de demanda das 2.229 ofertas de compra, divididas nos 18 IPO’s estudados, foi de quase 4 vezes o número de ações ofertadas, ou 394%, conforme tabela 11 deste trabalho. Os resultados obtidos seguem na direção das teorias de preferência por investidores de longo prazo em detrimento de investidores de curto prazo. Encontramos que o preço e a participação em diversos IPO’s não são determinantes para explicar as diferenças nas alocações, distanciando nossos resultados das teorias de assimetria de informação. Já as variáveis que exprimem características dos investidores mostraram-se bastante relevantes para explicar as diferenças nas alocações. Primeiramente, o tipo de investidor mostrou-se uma variável decisiva na alocação. Nas hipóteses testadas, encontramos evidências de que investidores de longo prazo, os chamados Long-Only são beneficiados enquanto investidores de curto prazo, em geral hedge-funds e tesourarias, são penalizados nas alocações. Segundo, a nacionalidade do investidor também exprime papel fundamental na alocação. Investidores norte-americanos são beneficiados enquanto investidores brasileiros são penalizados, outro resultado contrário às teorias de troca de alocação por informação, dado que investidores domésticos, em teoria, deveriam ter maior informação do que estrangeiros. Em realidade, se existe um consenso nesse campo de pesquisa é o de que investidores norte-americanos determinam a direção da grande maioria dos recursos destinados a esse mercado e emitem forte sinalização quando “entram” em negócios dessa natureza ao redor do mundo, o mesmo ocorrendo no caso brasileiro e demonstrado em nossa análise, conforme acima mencionado. Os resultados apenas comprovam que esse tipo de ação de tais investidores tem sido premiado por meio de favorecimento em alocações nas ofertas no mercado brasileiro, principalmente quando controlamos para emissões com alta demanda, os chamados Hot IPO’s. Também encontramos evidências contrárias às teorias de controle. Ao regredir nossa variável Tamanho, encontramos um sinal contrário ao esperado. Isto é, para os dados que dispúnhamos, verificamos o favorecimento de grandes ofertas em detrimento de pequenas, enquanto esperaríamos que os underwriters evitassem concentração de ações, “protegendo” as empresas emissoras de eventuais problemas de liquidez e até potenciais tentativas de hostile take-overs no futuro.
Resumo:
A ineficiência nas cortes brasileiras tem sido objeto de debates nos círculos acadêmicos e empresariais desde há muito tempo. Entretanto, grande parte das discussões tem sido baseada em “achismos”, senso comum e evidências anedóticas. Pouca ou nenhuma pesquisa empírica tem sido desenvolvida na literatura nacional. Esta tese oferece uma análise qualitativa e quantitativa do Judiciário brasileiro, usando a perspectiva da Análise Econômica do Direito (ou Law and Economics). Primeiro, discutimos como as instituições, de maneira geral, e as instituições legais, de maneira específica tornaram-se objetos de interesse dos economistas. Isso relaciona-se com o surgimento da Economia Institucional, e mais precisamente, da Nova Economia Institucional nos anos 1960s. Desde então, muitos trabalhos empíricos na área têm surgido, enfatizando a importância da qualidade das instituições (legais) na economia. A Análise Econômica do Direito desenvolveu-se dentro deste contexto. Oferecemos então uma análise descritiva da atual situação (crítica) do Judiciário brasileiro. Apresentamos as explicações “tradicionais” para a ineficiência, mais comumente a falta de recursos e a má qualidade do direito processual. No entanto, oferecemos explicações alternativas, que questionam a ênfase normalmente dada à quantidade de recursos e, ao invés disso, focam na qualidade da gestão das cortes como a principal fonte de (in) eficiência. Depois, empregaremos a Análise Envoltória de Dados (DEA) para medir empiricamente a eficiência relativa dos Tribunais Estaduais brasileiros. Os resultados indicam que ela varia significativamente entre os estados e pode não ser unicamente explicada pela falta de recursos disponíveis para cada corte. Finalmente, testamos uma das mais conhecidas hipóteses da literatura brasileira da Análise Econômica do Direito: que os juízes tendem a favorecer os devedores contratuais, ou seja, que eles têm um viés pró-devedor em seus julgamentos. Baseados em 1.687 decisões do Superior Tribunal de Justiça mostramos que tal viés não existe de forma consistente entre os juízes brasileiros, pelo menos não entre os Ministros do STJ. Entretanto, as decisões parecem ser inconsistentes ao longo do tempo, algo que pode gerar alto grau de incerteza. Desejamos com esta tese fazer uma contribuição tornando a análise econômica do Judiciário mais empírica, menos baseada em “achismos”, anedotas ou no senso comum.
Resumo:
Uma das mais importantes diretrizes do Sistema Único de Saúde (SUS) é a descentralização da gestão dos serviços de saúde, visando uma maior proximidade dos agentes tomadores de decisão com a população local. Contudo, um dos argumentos contrários à descentralização é de que esta pode implicar em consideráveis perdas de escala. Este trabalho tem como objetivo investigar a existência de economias de escala no setor de saúde pública no Brasil. Alguns estudos empíricos nacionais já encontraram evidências de economias de escala na provisão de serviços públicos em geral, incluindo o caso específico do setor de saúde, como os trabalhos de Souza, Cribari-Neto e Stosic (2005) e Mattos et al. (2009). Este estudo busca acrescentar novas evidências a esse tema, a partir de uma nova investigação que difere das anteriores em metodologia. Inicialmente é calculado um score de eficiência (através do método DEA - Data envelopment analysis) com base em três variáveis de insumo (gastos em saúde, cobertura de esgoto e de abastecimento de água encanada) e três variáveis de produto (mortalidade infantil, internação por doenças infecciosas e taxa de acesso ao sistema de saúde). Após o cálculo deste score, analisa-se a relação entre tamanho da população e outras variáveis demográficas e a eficiência dos municípios na provisão de saúde. Para isso foi feita uma regressão usando dados de painel que inclui 537 dos 645 municípios do Estado de São Paulo ao longo do período 2002-2007, o que permite o controle do efeito fixo dos municípios, além do controle de características como renda per capita, violência, educação, entre outros. Os resultados confirmam aqueles já encontrados por outros pesquisadores a partir de outras metodologias, revelando que o tamanho do município é um importante determinante de sua eficiência na área de saúde. Assim sendo, por fim, investigam-se possíveis explicações para o forte impacto da escala na eficiência de gastos em saúde. A questão que surge é a identificação dos fatores que determinam essas economias de escala, que podem vir, por exemplo, dos gastos em infra-estrutura – como quantidade de leitos e estabelecimentos – ou de gastos com recursos humanos, equipamentos, materiais ou remédios. Parte desta questão é analisada ao se estimar um modelo de regressões aparentemente não correlacionadas, no qual se identificam diferenças relevantes na intensidade de utilização de diferentes categorias de insumos de acordo com o tamanho da população.
Resumo:
O trabalho consiste em um estudo sobre sensibilidade a juros e seleção adversa por meio de ofertas de empréstimo pessoal atrelado ao cartão de crédito para dois públicos de rendas diferentes realizado por uma grande instituição financeira brasileira. Cada um dos públicos foi dividido aleatoriamente em subgrupos que receberam ofertas de empréstimo pessoal idênticas, alterando-se apenas a taxa de juros. Foi analisada a taxa de resposta para cada subgrupo, assim como as características de todos os clientes até um ano após a oferta do empréstimo. Para os dois públicos foi constatado que clientes que aceitam o empréstimo possuem maior risco de crédito em comparação com os clientes que não contratam o mesmo. Para o público de renda mais alta, a taxa de juros mostrou ser fator importante tanto na aceitação do empréstimo quanto no nível de risco dos clientes. Taxas de juros mais baixas converteram uma maior quantidade de clientes em contratos de empréstimo, sendo que estes possuíam menor risco de crédito do que aqueles que contratam o empréstimo com taxas mais altas. Para o público de renda mais baixa, a taxa de juros mostrou ser insensível tanto na taxa de aceitação do empréstimo quanto no nível de risco dos clientes, ou seja, clientes não levaram em consideração a taxa de juros quando analisamos taxas de respostas (o nível de aceitação foi o mesmo para taxas de juros diferentes) e não houve diferenciação de nível de risco para as taxas de juros ofertadas, ao contrário do que aconteceu com o público de renda mais alta.
Resumo:
O objetivo deste trabalho é criar um modelo que permita predizer quais clientes possuem tendência a abandonar a empresa (churn) através da base de dados de solicitações de reparo dos clientes de banda larga. Este tema ganha importância à medida que a concorrência neste mercado se acirra e novas tecnologias para acesso à banda larga são disponibilizadas aos clientes. Para este estudo foram utilizadas as bases de dados de solicitações de reparo e de solicitações de desligamento do serviço. O primeiro modelo criado utilizou as variáveis tempo até o reparo e a quantidade de solicitações de reparo. Na busca por um modelo com maior nível de acerto, foi criado um segundo modelo no qual se consideraram as variáveis motivo da reclamação e causa do defeito. O resultados do estudo indicam que as variáveis tempo até o reparo e quantidade de solicitações de reparo influenciam na taxa de solicitações de desligamento, assim como alguns motivos de solicitação de reparo e causa de defeito são mais relevantes para a decisão de desligamento. No entanto, o nível de acerto dos modelos criados é baixo. Portanto, a utilização destes modelos para identificação e abordagem de clientes propensos a solicitar desligamento implica em ajustes no nível de certeza do modelo e consequente redução na quantidade de clientes a serem abordados.
Resumo:
Com o rápido crescimento da Internet, a quantidade de informações disponíveis tornou-se gigantesca, dificultando a busca pelo que realmente é essencial. Da mesma forma que vários esforços na divulgação de informações relevantes foram efetuados, sites de qualidade duvidosa também apareceram. Os "Sites de busca, apesar de ainda limitados, passaram a ter papel cada vez mais importante, e alguns deles são, hoje, líderes em número de acessos. A avaliação da qualidade de sites na Internet é, hoje, tópico de estudo de vários pesquisadores em todo o mundo. Vários modelos de avaliação existem, com focos que se alternam entre a avaliação dos aspectos tecnológicos e a medição da qualidade percebida pelo usuário ou consumidor. Nesta pesquisa, optou-se por analisar a aplicabilidade do instrumento "WebOual" - criado pelos professores Stuart Barnes (Victoria University of Wellington - Nova Zelândia) e Richard Vidgen (Universidade de Bath - Inglaterra) - o qual privilegia a avaliação da qualidade dos sites pesquisados pela ótica do usuário ou consumidor. Será aplicada a abordagem WebOual a três sites de busca internacionais que possuem versões localizadas em português. no Brasil: Altavista, Yahoo! e Google. Trata-se de utilização inédita da abordagem WebOual, anteriormente testada por seus criadores na avaliação de sites de Livrarias Virtuais, Universidades, Leilões ontine e sites WAP.