983 resultados para CODIGOS CORRETORES DE ERROS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O modelo racional de decisão tem sido objeto de estudo constante na academia de vários países, contribuindo para evolução do ser racional como importante tomador de decisão. A evolução destes estudos tem aberto questionamentos quanto à capacidade de racionalidade que temos como tomadores de decisão, deleitando assim em várias teorias novas que pesquisam estas limitações no decidir. Especialmente aplicadas a teorias econômicas, estudos como Inteligência Artificial, Contabilidade Mental, Teoria dos Prospectos, Teoria dos Jogos entre outras se destacam neste cenário de estudo das finanças comportamentais. A contabilidade como ferramenta de apoio as decisões financeiras ocupa posição de destaque. Esta tem em seu escopo de trabalho normas (aquilo que deveria ser feito) que regulam sua atuação, em alguns casos esta regulamentação não é precisa em suas especificações, deixando janelas que levam seus profissionais a erros de interpretação. A imprecisão contábil pode causar viés em suas classificações. Os profissionais, deparados com este legado podem se utilizar de heurísticas para interpretar da melhor maneira possível os acontecimentos que são registrados na contabilidade. Este trabalho tem a intenção de análise de alguns pontos que consideramos importantes quando temos imprecisão contábil, respondendo as seguintes perguntas: a imprecisão de normas contábeis causa viés na decisão? O profissional que se depara com imprecisão contábil se utiliza de Heurística para decidir? Quais os erros mais comuns de interpretação sob incerteza contábil? Para que o assunto fosse abordado com imparcialidade de maneira a absorver retamente quais são as experiências dos profissionais que atuam na área contábil, foi elaborado um questionário composto por uma situação possível que leva o respondente a um ambiente de tomada de decisões que envolva a prática contábil. O questionário era dividido em duas partes principais, com a preocupação de identificar através das respostas se existe imprecisão contábil (sob a luz do princípio da prudência) e quais heurísticas que os respondentes se utilizam com mais freqüência, sendo o mesmo aplicado em profissionais que atuam na área contábil e que detenham experiências profissionais relacionadas à elaboração, auditoria ou análise de demonstrações contábeis. O questionário aplicado na massa respondente determinou, através das respostas, que existe, segundo os profissionais, interpretações diferentes para os mesmos dados, caracterizando assim zona cinzenta, segundo Penno (2008), ou seja, interpretações que podem ser mais agressivas ou mais conservadoras conforme a interpretação do profissional. Já quanto às estratégias simplificadoras, ou heurísticas, que causam algum tipo de enviesamento no processo decisório, alguns foram identificadas como: associações pressupostas, interpretação errada da chance, regressão a media e eventos disjuntivos e eventos conjuntivos, que reforçam a pesquisa dando indícios de que os respondentes podem estar tomando decisões enviesadas. Porém, não se identificou no estudo tomada de decisões com enviesamentos como recuperabilidade e insensibilidades ao tamanho da amostra. Ao final do estudo concluímos que os respondentes têm interpretações diferenciadas sobre o mesmo assunto, mesmo sob a luz do princípio contábil da prudência, e ainda se utilizam de estratégias simplificadoras para resolverem assuntos quotidianos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho contribui a discussão de diversificação internacional no contexto de investidores brasileiros com referência na moeda local (Reais). O trabalho testa as seguintes hipóteses: (1) se a adição de ativos internacionais não aumenta a eficiência (melhora na relação retorno/risco) de carteiras somente com ativos brasileiros, (2) se carteiras de menor risco exigem mais alocações internacionais e, (3) se alocação de ativos é parecida para investidores com referências em dólar ou em reais. Esse trabalho utiliza modelos já conhecidos de fronteiras eficientes com aplicação de técnicas que utilizam rotinas de Monte Carlo para suavizar possíveis erros na estimação dos retornos das classes de ativos, que incorporam ainda incertezas sobre o câmbio. Nas simulações são utilizadas uma cesta de ativos locais e uma cesta de ativos que melhor representa o mercado internacional. Apesar da grande maioria dos investidores brasileiros utilizarem muito pouco ativos internacionais em suas carteiras, seja por motivos de Home Bias, fatores históricos macroeconômicos evidenciados pelas altas taxas de juros ou limitações regulatórias, os resultados empíricos demonstram que existem ganhos de eficiência para as carteiras de investidores brasileiros ao se incluir ativos internacionais na alocação de ativos. Esses ganhos de eficiência são evidenciados para todos os perfis de risco, desde os mais conservadores até os perfis mais agressivos. Os resultados mostram que quanto maior o perfil de risco da carteira, maior é a alocação internacional que maximiza a eficiência da carteira. E por último, a referência da moeda muda significativamente a alocação eficiente de carteiras, carteiras com referência em dólar exigem menos diversificação com ativos em reais do que carteiras com referência em Reais exigem diversificação com ativos internacionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O processo de desenvolvimento de produto (PDP) convencional tende a enfatizar a definição do produto sem levar em conta as necessidades da produção. Dentre as várias iniciativas que têm sido desenvolvidas para integrar estas duas interfaces, este trabalho destaca a construtibilidade, a qual visa, por meio de intervenções no projeto do produto e do processo, garantir a facilidade de execução da obra durante as etapas de construção e manutenção. No entanto, poucos estudos têm se dedicado à consideração dos requisitos de produção no PDP de obras de menor complexidade. Assim, o objetivo principal deste trabalho consiste em propor diretrizes para a integração dos requisitos de construtibilidade ao PDP de obras repetitivas, que abrangem conjuntos residenciais e prédios altos com mais de dez pavimentos. A partir de dois estudos de caso realizados em uma empresa construtora e incorporadora de condomínios horizontais de Porto Alegre, foram propostas as seguintes diretrizes: (a) adequação do projeto do produto às limitações impostas pela tecnologia construtiva disponível; (b) análise crítica do projeto com apoio de indicadores; (c) construção e avaliação de uma unidade modelo; e (d) desenvolvimento de mecanismos de aprendizagem em relação à construtibilidade. A diretriz (b) inclui a proposição de um check-list de boas práticas com vistas a avaliação dos níveis de construtibilidade do projeto do produto e do processo. Além disso, este trabalho indicou que, a ocorrência de determinadas não conformidades durante a execução, tais como má qualidade dos materiais e erros de execução, resultam em perda do valor agregado para o cliente interno. Sendo assim, constatou-se que o esforço pela melhoria da construtibilidade deve incluir a consideração de meios para assegurar que a facilidade de execução prevista no projeto do produto e do processo, seja concretizada na etapa de construção.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo a estimação e comparação entre modelos VECM com a abordagem de modelos TVECM, na modelagem e estudo do desalinhamento cambial e como o ajuste do câmbio real para que procede. Como estratégia a ser abordada serão considerados modelos de correção de erros com características distintas. Utilizaremos como abordagem linear a técnica de cointegração proposta por Johansen (1988), a abordagem tradicional. Como técnica não linear utilizaremos a abordagem inicialmente proposta por BALKE, FOMBY(1997), que consideram um mecanismo de correção de erros de forma a incorporar características TAR e SETAR. Para a análise da presença ou não de não linearidade na correção de erros entre as séries, foram realizados neste trabalho os testes de Kapetanios, Shin e Snell (2003), Hansen e Seo(2002) e Seo (2006)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa analisa os atores-chave da logística e distribuição da produção de café do Sul de Minas Gerais. Nesse propósito são considerados especialmente o papel e a importância econômica e estratégica de alguns agentes que compõem os elos da subcadeia produtiva do café, tais como intermediários (corretores ou comerciantes), cooperativas, armazenagem, transporte rodoviário e marítimo e porto (seco e marítimo). A partir de um questionário específico para cada agente, foram analisados: as cooperativas “MINASUL” e “COOXUPÉ”, o “PORTO SECO” de Varginha, a exportadora “COFFEE”, o Armazéns Gerais “CAFÉ”, a Transportadora “TRANSCAFÉ” e os “PORTOS MARÍTIMOS” de Santos, SP e Rio de Janeiro, RJ. Para a análise logística de transporte foi utilizada a ferramenta computacional infoguia rodoviário multimídia, que distingue a distância percorrida entre regiões e os possíveis custos de transporte e tempo gasto na distribuição do produto, neste caso, o café. Considerando as informações quantitativas e qualitativas, a pesquisa apresenta como resultado: os custos de armazenagem, a formação do preço de transporte do café, os possíveis canais de distribuição do café para os portos marítimos mais próximos, assim como os custos incorridos por cada percurso e os melhores espaçamentos e tipos de armazenagem do café. Por fim, o trabalho discute algumas estratégias logísticas das empresas analisadas e apresenta sugestões a serem seguidas para a melhor eficiência e eficácia na logística do escoamento do café na região do sul de Minas Gerais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o objetivo de analisar o impacto na Estrutura a Termos de Volatilidade (ETV) das taxas de juros utilizando dois diferentes modelos na estimação da Estrutura a Termo das Taxas de Juros (ETTJ) e a suposição em relação a estrutura heterocedástica dos erros (MQO e MQG ponderado pela duration), a técnica procede em estimar a ETV utilizando-se da volatilidade histórica por desvio padrão e pelo modelo auto-regressivo Exponentially Weighted Moving Average (EWMA). Por meio do teste de backtesting proposto por Kupiec para o VaR paramétrico obtido com as volatilidades das ETV´s estimadas, concluí-se que há uma grande diferença na aderência que dependem da combinação dos modelos utilizados para as ETV´s. Além disso, há diferenças estatisticamente significantes entre as ETV´s estimadas em todo os pontos da curva, particularmente maiores no curto prazo (até 1 ano) e nos prazos mais longos (acima de 10 anos).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A área que enfocamos é a de processamento de dados. o que nos interessará neste trabalho é o controle na forma de uma redundância que acompanha o código. Abrange os CÓDIGOS DETETORES DE ERROS, sendo já bastante difundida na forma de DÍGITOS VERIFICADORES OU DE CONTROLE, para códigos numéricos decimais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Outliers são observações que parecem ser inconsistentes com as demais. Também chamadas de valores atípicos, extremos ou aberrantes, estas inconsistências podem ser causadas por mudanças de política ou crises econômicas, ondas inesperadas de frio ou calor, erros de medida ou digitação, entre outras. Outliers não são necessariamente valores incorretos, mas, quando provenientes de erros de medida ou digitação, podem distorcer os resultados de uma análise e levar o pesquisador à conclusões equivocadas. O objetivo deste trabalho é estudar e comparar diferentes métodos para detecção de anormalidades em séries de preços do Índice de Preços ao Consumidor (IPC), calculado pelo Instituto Brasileiro de Economia (IBRE) da Fundação Getulio Vargas (FGV). O IPC mede a variação dos preços de um conjunto fixo de bens e serviços componentes de despesas habituais das famílias com nível de renda situado entre 1 e 33 salários mínimos mensais e é usado principalmente como um índice de referência para avaliação do poder de compra do consumidor. Além do método utilizado atualmente no IBRE pelos analistas de preços, os métodos considerados neste estudo são: variações do Método do IBRE, Método do Boxplot, Método do Boxplot SIQR, Método do Boxplot Ajustado, Método de Cercas Resistentes, Método do Quartil, do Quartil Modificado, Método do Desvio Mediano Absoluto e Algoritmo de Tukey. Tais métodos foram aplicados em dados pertencentes aos municípios Rio de Janeiro e São Paulo. Para que se possa analisar o desempenho de cada método, é necessário conhecer os verdadeiros valores extremos antecipadamente. Portanto, neste trabalho, tal análise foi feita assumindo que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers. O Método do IBRE é bastante correlacionado com os preços alterados ou descartados pelos analistas. Sendo assim, a suposição de que os preços alterados ou descartados pelos analistas são os verdadeiros valores extremos pode influenciar os resultados, fazendo com que o mesmo seja favorecido em comparação com os demais métodos. No entanto, desta forma, é possível computar duas medidas através das quais os métodos são avaliados. A primeira é a porcentagem de acerto do método, que informa a proporção de verdadeiros outliers detectados. A segunda é o número de falsos positivos produzidos pelo método, que informa quantos valores precisaram ser sinalizados para um verdadeiro outlier ser detectado. Quanto maior for a proporção de acerto gerada pelo método e menor for a quantidade de falsos positivos produzidos pelo mesmo, melhor é o desempenho do método. Sendo assim, foi possível construir um ranking referente ao desempenho dos métodos, identificando o melhor dentre os analisados. Para o município do Rio de Janeiro, algumas das variações do Método do IBRE apresentaram desempenhos iguais ou superiores ao do método original. Já para o município de São Paulo, o Método do IBRE apresentou o melhor desempenho. Em trabalhos futuros, espera-se testar os métodos em dados obtidos por simulação ou que constituam bases largamente utilizadas na literatura, de forma que a suposição de que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers não interfira nos resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese é composta por três ensaios sobre a gestão educacional no Brasil. Os dois primeiros abordam o processo de municipalização do ensino fundamental, destacando suas características e consequências. O terceiro ensaio discute a composição de um indicador de qualidade educacional que melhor reflita a gestão escolar. No primeiro ensaio procuramos entender, separadamente para cada um dos ciclos do ensino fundamental, como o processo de municipalização ocorreu, a partir da decomposição do aumento na proporção de crianças matriculadas em escolas municipais, e quais foram seus efeitos a partir de uma análise descritiva dos dados. No período de 1996 a 2011 foram adicionados à matrícula municipal mais de 2,5 milhões de alunos de 1a a 4a série e mais de 3,0 milhões de alunos de 5a a 8a série, em paralelo à diminuição de 3,67 milhões de matrículas do primeiro ciclo no total e ao aumento de apenas 894 mil matrículas do segundo ciclo. Os resultados da decomposição indicam que para o primeiro ciclo do ensino fundamental os novos alunos matriculados em escolas municipais foram absorvidos em função do aumento no tamanho médio das escolas municipais já existentes; enquanto para o segundo ciclo, os resultados sugerem que a criação de escolas é um forte componente explicativo do aumento na matrícula municipal. Como consequências, temos indícios de que as escolas que transferiram sua gestão apresentaram melhora considerável dos indicadores escolares. Ainda, observamos que a opção pela municipalização pode ter ocorrido naquelas escolas com condições de infraestrutura e insumos escolares mais precárias. Por fim, observamos uma mudança no perfil dos alunos da 4a série do ensino fundamental em função da descentralização administrativa caracterizada por piora das características socioeconômicas médias dos alunos nas escolas transferidas após a mudança de gestão. No segundo ensaio avaliamos econométricamente esses possíveis impactos do processo de municipalização do ensino fundamental sobre o desempenho escolar medido em taxa de aprovação, taxa de abandono, taxa de distorção idade-série e notas em exames de proficiência. Esta análise é feita através da metodologia de diferenças em diferêncas com intensidade de tempo. Analisamos ainda, se os ganhos do processo de descentralização foram diferenciados pelo nível socioeconômico das regiões, a partir da estimação de impactos heterogêneos nas variáveis explicativas. Por fim, avaliamos como o programa de accountability do governo brasileiro, a divulgação do IDEB (Índice de Desenvolvimento da Educação Básica), afetou o desempenho dos alunos em paralelo ao processo de municipalização do ensino fundamental. Os resultados estimados indicam que a relação entre a administração municipal e o desempenho escolar é positiva e crescente com o tempo de exposição ao tratamento. Ainda, que ocorreu redução da desigualdade dos indicadores educacionais - taxa de aprovação, taxa de abandono e taxa de distorção idade-série - em função da descentralização administrativa entre as escolas do primeiro ciclo do ensino fundamental. Por outro lado, o processo de descentralização da gestão escolar levou a aumento da desigualdade nos resultados educacionais medidos por exames de proficiência entre os alunos da 4a e da 8a séries do ensino fundamental. Por fim, observamos que na maioria dos casos analisados, a descentralização administrativa associada ao programa de accountability gerou melhores resultados em termos de desempenho escolar do que quando aplicada de forma isolada, corroborando os resultados encontrados na literatura internacional. No terceiro e último ensaio propomos a criação de um indicador que reflita a qualidade da escola associada aos fatores escolares e que evite dois problemas encontrados em estudos anteriores: indicadores de proficiência em nível que refletem mais o background familiar do aluno do que a qualidade da escola; e estimações de valor adicionado muito sensíveis a erros de mensuração. Assim, os indicadores são obtidos através de um modelo estrutural em que se modela a variável latente de qualidade da escola de modo a corrigir o potencial viés dos estudos anteriores. Utilizamos dados brasileiros para aplicações desses indicadores e revisitamos os fatores de família, escola e gestão para saber quais elementos têm maiores impactos sobre os resultados de educação como proficiência. Os resultados mostram que o ordenamento das escolas pelos indicadores de qualidade difere do ordenamento obtido pelos indicadores com a proficiência em nível e é menos instável do que o ordenamento obtido a partir dos indicadores de valor adicionado puro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma das principais vantagens das estratégias de negociação em pares está relacionada à baixa correlação com os retornos do mercado. Ao tomar posições compradas e vendidas, estas estratégias são capazes de controlar a magnitude do beta de mercado, mantendo-se praticamente zero ou estatísticamente não significativas. A idéia consiste na realização de arbitragem estatística, aproveitando os desvios de preços de equilíbrio de longo prazo. Como tal, elas envolvem modelos de correção de equilíbrio para os pares de retornos dos ativos. Nós mostramos como construir uma estratégia de negociação de pares que é beneficiada não só pela relação de equilíbrio de longo prazo entre os pares de preços dos ativos da carteira, mas também pela velocidade com que os preços ajustam os desvios para o equilíbrio. Até então, a grande maioria das estratégias envolvendo negociação em pares se baseavam na hipótese de que a obtenção de retornos positivos estaria relacionada à reversão à média caracterizada pela relação de cointegração dos pares, mas ignorava a possibilidade de seleção dos pares testando a velocidade de ajustamento do Vetor de Correção de Erros desta relação. Os resutados deste trabalho indicaram baixos níveis de correlação com o mercado, neutralidade das estratégias, associados a retornos financeiros líquidos e Índice de Sharpe anualizados de 15,05% e 1,96 respectivamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta pesquisa é fornecer informações que propiciem ao gestor de convênios, condição necessária para apresentar uma prestação de contas com maior probabilidade de aceitação por parte da FINEP. Foram pesquisadas as causas dos erros mais frequentes detectados na execução financeira dos projetos que impedem a aprovação da prestação de contas no momento da análise. A pesquisa foi realizada em duas etapas: pesquisa documental e tratamento dos dados. A primeira etapa foi qualitativa constando de coleta de dados e análise documental. O período analisado foi de 01/01/2013 a 30/11/2013, por serem as mais recentes, abrangendo convênios assinados entre 2001 e 2012. Nesta pesquisa foram considerados todos os convênios analisados no período acima referido, apoiados com recursos FNDCT para desenvolvimento de estudos e pesquisas, analisados pela FINEP, e com ao menos uma impropriedade. A pesquisa documental foi realizada no Departamento de Prestação de Contas de Convênio, Termos e Acordos de Cooperação - DPC1, responsável pelo acompanhamento da execução financeira dos convênios na FINEP. Cabe informar que foram analisados 2.476 convênios ao todo no ano de 2013, sendo 1.248 aprovados e 1.228 com alguma impropriedade. A segunda etapa da pesquisa foi quantitativa, e a técnica por saturação, utilizando estatística descritiva com análise exploratória dos dados. O tratamento dos dados foi realizado a partir da distribuição de frequência observada. Como resultado da pesquisa, observa-se que as dez impropriedades mais recorrentes correspondem a 90% de todas as impropriedades do período analisado. Diante disto, cabe a proposta de orientação ao convenente, através de um FAQ no site da FINEP, abordando assuntos afetos a convênios assinados com recursos FNDCT, de fácil entendimento e acesso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese é composta de três artigos que analisam a estrutura a termo das taxas de juros usando diferentes bases de dados e modelos. O capítulo 1 propõe um modelo paramétrico de taxas de juros que permite a segmentação e choques locais na estrutura a termo. Adotando dados do tesouro americano, duas versões desse modelo segmentado são implementadas. Baseado em uma sequência de 142 experimentos de previsão, os modelos propostos são comparados à benchmarks e concluí-se que eles performam melhor nos resultados das previsões fora da amostra, especialmente para as maturidades curtas e para o horizonte de previsão de 12 meses. O capítulo 2 acrescenta restrições de não arbitragem ao estimar um modelo polinomial gaussiano dinâmico de estrutura a termo para o mercado de taxas de juros brasileiro. Esse artigo propõe uma importante aproximação para a série temporal dos fatores de risco da estrutura a termo, que permite a extração do prêmio de risco das taxas de juros sem a necessidade de otimização de um modelo dinâmico completo. Essa metodologia tem a vantagem de ser facilmente implementada e obtém uma boa aproximação para o prêmio de risco da estrutura a termo, que pode ser usada em diferentes aplicações. O capítulo 3 modela a dinâmica conjunta das taxas nominais e reais usando um modelo afim de não arbitagem com variáveis macroeconômicas para a estrutura a termo, afim de decompor a diferença entre as taxas nominais e reais em prêmio de risco de inflação e expectativa de inflação no mercado americano. Uma versão sem variáveis macroeconômicas e uma versão com essas variáveis são implementadas e os prêmios de risco de inflação obtidos são pequenos e estáveis no período analisado, porém possuem diferenças na comparação dos dois modelos analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A principal explicação sugerida pela literatura para o viés do preço futuro em relação à taxa de câmbio que prevalecerá no futuro é a existência de um prêmio de risco. Aplicamos aqui os principais modelos teóricos e técnicas econométricas para identificação e mensuração do prêmio de risco aos dados brasileiros do mercado futuro de câmbio posteriores ao Plano Real. Identifica-se um prêmio de risco que varia ao longo do tempo, o qual correlaciona-se com os fundamentos macroeconômicos da economia. A partir de 1999, coerentemente com a introdução da livre flutuação cambial, observou-se uma diminuição da importância do prêmio de risco relativamente aos erros de previsão na composição do forward discount. As técnicas empregadas permitem-nos avaliar importantes questões de política econômica, como o quanto podem cair as taxas de juros reais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Dissertação analisa em que medida os critérios contidos na Lei 12.527/11, conhecida como a Lei de Acesso à Informação, são atendidos pelo Sistema Integrado de Gestão de Aquisições – SIGA, do Estado do Rio de Janeiro. O pilar desta pesquisa é o inciso IV do art. 8º da referida Lei, que determina a divulgação dos registros de despesas, juntamente com os procedimentos licitatórios e os contratos celebrados, objetivando especialmente, transparência dos gastos públicos. A efetivação das compras públicas através da internet, é uma implementação da governança eletrônica, dimensão política mais avançada do governo eletrônico, proporcionando inúmeras vantagens como a celeridade nos processos licitatórios. Além disso, as transações efetuadas por meio de sistema são facilmente rastreáveis por auditorias. As informações registradas em um ambiente único garantem o cumprimento integrado de normas diminuindo erros. O pregão na forma eletrônica é, atualmente, a modalidade mais utilizada pela Administração Pública, pois vem ao encontro das demandas por transparência nos atos públicos E a análise apresentada neste trabalho É recomendada por destacara relevância da análise do site de compras eletrônicas do Estado do Rio de Janeiro, o Sistema Integrado de Gestão de Aquisições – SIGA. Para criar um parâmetro entre o SIGA e os sistemas utilizados por outros Estados, foram analisadas informações disponibilizadas nos pregões ocorridos durante o ano de 2014. Esta pesquisa mais ampla objetiva balizar o SIGA, do Estado do Rio de Janeiro, montando um ranking de transparência E o site ficou em quarto lugar, empatado com o Estado do Amazonas, atrás de São Paulo, Rio Grande do Sul e Mato Grosso.A metodologia qualitativa favoreceu a leitura valorativa do emprego do SIGA, em busca do atendimento a política pública de significativo impacto social da modalidade enfocada devido a resultados rápidos e abertura participativa de acompanhamento cidadão.As entrevistas reforçaram essa característica inerente à postura qualitativa do estudo, com percepções e informações oportunas.As considerações finais destacam avanços e limitações nos sistemas de compras eletrônicas governamentais existentes. O Siga, embora consolidado, em uso desde 2009, por todos os órgãos estaduais do Rio de Janeiro, necessita, ainda, aperfeiçoamento a implantar-se durante 2015, quando novas pesquisas devem acompanhar o movimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Decision makers often use ‘rules of thumb’, or heuristics, to help them handling decision situations (Kahneman and Tversky, 1979b). Those cognitive shortcuts are taken by the brain to cope with complexity and time limitation of decisions, by reducing the burden of information processing (Hodgkinson et al, 1999; Newell and Simon, 1972). Although crucial for decision-making, heuristics come at the cost of occasionally sending us off course, that is, make us fall into judgment traps (Tversky and Kahneman, 1974). Over fifty years of psychological research has shown that heuristics can lead to systematic errors, or biases, in decision-making. This study focuses on two particularly impactful biases to decision-making – the overconfidence and confirmation biases. A specific group – top management school students and recent graduates - were subject to classic experiments to measure their level of susceptibility to those biases. This population is bound to take decision positions at companies, and eventually make decisions that will impact not only their companies but society at large. The results show that this population is strongly biased by overconfidence, but less so to the confirmation bias. No significant relationship between the level of susceptibility to the overconfidence and to the confirmation bias was found.