362 resultados para Economia da Informação
Resumo:
o rápido movimento dos sistemas de informação baseados na Internet tem contribuído para o surgimento de várias transformações na área de assistência médica, dentro dos hospitais. Entretanto, esse desenvolvimento tem gerado preocupações na mente de acadêmicos e gestores sobre a real capacidade dessas instituições de, satisfatoriamente, gerenciarem sua introdução. Diversas instituições de saúde têm consumido grandes quantias de investimento e frustrado inúmeras pessoas em desperdiçados esforços de implantar sistemas clínicos. Infelizmente, não existem respostas fáceis sobre o porquê de tantos projetos não serem bem sucedidos. A presente pesquisa de caso investigará, empiricamente, as principais causas para a implantação sem sucesso de um sistema clínico de Prescrição Eletrônica no Hospital Adventista Silvestre. Para tal, foi utilizado como arcabouço teórico a Teoria da Resistência à Implantação de Sistemas, notadamente exposta por Kling (1980) e Markus (1983) - que discutem a necessidade de uma análise abrangente do contexto intraorganizacional, para que se revelem os principais fatores responsáveis pelas implantações mal-sucedidas. A análise interpretativa desenvolvida a partir dos três vetores de resistência advindos desta teoria adicionará novas perspectivas e esclarecimentos ao existente corpo de conhecimento no campo da implantação de Tecnologias da Informação e Informática Médica.
Resumo:
A difusão das doutrinas de gerenciamento orientadas para resultados no Brasil tem levado as organizações públicas a realizarem investimentos relevantes em tecnologia da informação como um componente de transparência para as ações governamentais e como suporte para a tomada de decisões pelos gestores públicos. O uso intensivo da informática em um mundo cada vez mais interconectado expõe a administração pública a novos tipos de ameaças e vulnerabilidades. Nesse contexto, as entidades de fiscalização devem ampliar sua forma de atuação, realizando controles mais rigorosos por meio de técnicas próprias de auditorias de tecnologia da informação, que visam assegurar a integridade e segurança dos dados que trafegam pelas redes e sistemas de informação. O objetivo da presente pesquisa consistiu em identificar as principais impropriedades associadas ao uso da informática nas administrações municipais sob a jurisdição do TCE-RJ, por meio do estudo de caso de sua experiência na realização de auditorias operacionais em tecnologia da informação. A pesquisa foi realizada com base na literatura e na análise dos achados das auditorias de sistemas, mostrando que este tipo de auditoria tem contribuído para tornar a gestão pública municipal mais eficiente, eficaz e transparente.
Resumo:
A tese tem como objetivo discutir a liquidez do mercado secundário de títulos da dívida pública no Brasil. Em três ensaios, defende que problemas de organização do mercado prejudicam a ampliação da liquidez e que a formação de preços nesse mercado acompanha as taxas do mercado futuro de depósitos interfinanceiros – DI futuro, e não o contrário, como esperado, já que a presença de títulos de elevada liquidez no mercado à vista é que deveria desenvolver o mercado futuro. O primeiro ensaio mede e estima os determinantes do bid-ask spread cotado (indicador de liquidez) para cada vértice de taxa de juros, tendo como referência os vencimentos dos títulos pré-fixados em cabeça de semestre: LTNs (LTN-13 e LTN-11) e NTNFs- (NTNF-17, NTNF-14). Mercados com menores spreads são mais líquidos, mercados com spreads maiores são menos líquidos. Os modelos empíricos foram estimados por meio de análises de séries de tempo. O trabalho utiliza o cálculo do bid-ask cotado para medir a liquidez dos títulos em análise, medido pela diferença entre o ask price e o bid price de fechamento do mercado. A estimação dos determinantes da liquidez de mercado foi realizada com base no método dos mínimos quadrados ordinários (MQO). O modelo testa se maturidade e volume de negócio determinam o bid-ask spread dos títulos. Mercados com menores spreads são mais líquidos do que mercados com maiores spreads. Os resultados mostram que a mediana e a média do bid-ask spread cotado crescem com a maturidade dos títulos. Os sinais dos parâmetros das regressões confirmam para a maioria dos vértices dos vértices analisados neste trabalho a hipótese inicial de que o bid-ask spread aumenta com a elevação maturidade e diminui com maior volume negociado, confirmando a hipótese de baixa liquidez dos títulos públicos no mercado secundário brasileiro. O segundo ensaio analisa uma singularidade relevante do mercado brasileiro: a dependência da formação dos preços e da taxa de juros no mercado secundário de títulos públicos (LTN e NTNF) em relação ao DI futuro. As variáveis utilizadas foram o bid-ask spread cotado e o volume negociado no mercado de títulos públicos e de DI futuro. O ensaio utiliza tanto o método de Granger (1969), que tem como suposto que as informações relevantes para a previsão das variáveis estão contidas exclusivamente nos dados das séries temporais destas mesmas variáveis, quanto o modelo de Geweke (1982) para testar a causalidade, simultaneidade e dependência linear entre as duas séries no tempo. Os resultados confirmam a hipótese inicial de que bid-ask spread e volume de títulos públicos possuem forte dependência do bid-ask spread e do volume para contratos de DI futuro de mesmo vencimento, dependência devida à causalidade do mercado de DI futuro para o mercado de títulos públicos para a maioria dos vértices analisados nesse trabalho, indicando que a taxa CDI é benchmark para a precificação dos títulos públicos. Uma possível explicação está nos fatores de microestrutura, que fazem com que esse mercado seja o mais conveniente para negociar risco de liquidez e de mercado. O terceiro ensaio discute as implicações do desenho institucional sobre a liquidez do mercado secundário de títulos públicos - mecanismos e regras de negociação, desenho dos títulos e base de investidores. Essas regras afetam a formação dos preços no mercado, definem as trocas, a dimensão da assimetria de informação e os custos de transação e do processo de negociação. Pela sua relevância, a organização do mercado de títulos públicos tem sido objeto de reformas em diversos países. O terceiro ensaio é finalizado com a análise das medidas adotadas no Brasil e de seus resultados.
Resumo:
Este trabalho consiste em estudar modelos incluindo agentes com informação completa e incompleta sobre o ambiente econômico. Prova-se a existência de equilíbrio em que esses dois agentes coexistem e sob, algumas condições, obtêm-se que esse equilíbrio é recursivo e contínuo, ou seja, pode ser implementado por uma função contínua de transição que relaciona as variáveis de equilíbrio entre dois períodos consecutivos. Mostra-se, sob algumas hipóteses, que em equilíbrios recursivos contínuos, os agentes que cometem erros persistentes nas antecipações dos preços de equilíbrio são eliminados do mercado. Finalmente, exibimos diversos exemplos numéricos, no caso de mercados incompletos e informação completa, em que os agentes com expectativas racionais são eliminados do mercado. Usam-se métodos numéricos alternativos que possibilitam computar um equilíbrio em modelos com agentes heterogêneos.
Resumo:
Este trabalho, com base na literatura teórica e empírica que trata da taxa de câmbio real, tem como objetivo investigar, por meio da estimação de um modelo de correção de erros, as principais variáveis que afetaram a taxa de câmbio real no período 1999/2010. A amostra utilizada começa com a implementação do regime de metas de inflação pelo Banco Central do Brasil (BCB) e pela adoção do câmbio flexível. O modelo de correção dos erros (VECM) foi estimado para duas taxas de câmbio reais efetivas, uma deflacionada pelo IPCA (Índice de Preço ao Consumidor Amplo) e outra pelo IPA (Índice de Preço no Atacado). Os resultados apontam que as principais variáveis que afetaram a taxa de câmbio real de equilíbrio no longo prazo foram: diferencial de juros, gastos do governo, produtividade, termos de troca, transações correntes e dívida externa total.
Resumo:
Ao longo dos anos muitas empresas elaboraram estratégias amplamente suportadas por recursos da área de Tecnologia de Informação como meios de obtenção de vantagem competitiva. Em certos casos estas iniciativas serviram tão somente para automatizar alguns dos processos organizacionais, equiparando a eficiência da empresa à de alguns de seus concorrentes, ou seja, sem gerar vantagem em relação à concorrência. Em outros casos estas iniciativas, além de melhorar o posicionamento destas empresas em relação a certos critérios de desempenho, conseguiram também alavancar inovação dos seus produtos e dos seus processos de negócios. Ao longo deste trabalho são discutidos alguns dos aspectos de negócios que influenciam no sucesso destas iniciativas, entre eles a integração com o modelo de negócios e a cultura da organização. Este trabalho traz uma proposta inicial de análise do ambiente de Tecnologia da Informação (TI) e dos processos de negócios de uma firma como recursos valiosos e de difícil imitação por outra organização, o que lhes permitiria estabelecer e manter vantagens competitivas em relação à concorrência. Esta discussão será embasada com a análise de casos de estudo reais, e que demonstram como determinadas capacidades organizacionais podem influenciar no sucesso das iniciativas de TI. Por fim, o trabalho discute também o resultado dos investimentos em TI quando considerados horizontes de tempo extensos, entre 15 a 20 anos. A proposta é a de considerar questões como a da maturidade das tecnologias adotadas e dos modelos de negócios estabelecidos, e seu eventual impacto ao longo dos anos. Esta discussão também é suportada pela análise dos estudos de casos selecionados.
Resumo:
Este trabalho analisa o desenvolvimento de dynamic capabilities em um contexto de turbulência institucional, diferente das condições em que esta perspectiva teórica costuma ser estudada. É feito um estudo de caso histórico e processual que analisa o surgimento das Dynamic Capabilities nos bancos brasileiros, a partir do desenvolvimento da tecnologia bancária que se deu entre os anos 1960 e 1990. Baseando-se nas proposições da Estratégia que analisam as vantagens competitivas das empresas através de seus recursos, conhecimentos e Dynamic Capabilities, é construído um framework com o qual são analisados diversos depoimentos dados ao livro “Tecnologia bancária no Brasil: uma história de conquistas, uma visão de futuro” (FONSECA; MEIRELLES; DINIZ, 2010) e em entrevistas feitas para este trabalho. Os depoimentos mostram que os bancos fizeram fortes investimentos em tecnologia a partir da reforma financeira de 1964, época em que se iniciou uma sequência de períodos com características próprias do ponto de vista institucional. Conforme as condições mudavam a cada período, os bancos também mudavam seu processo de informatização. No início, os projetos eram executados ad hoc, sob o comando direto dos líderes dos bancos. Com o tempo, à medida que a tecnologia evoluía, a infraestrutura tecnológica crescia e surgiam turbulências institucionais, os bancos progressivamente desenvolveram parcerias entre si e com fornecedores locais, descentralizaram a área de tecnologia, tornaram-se mais flexíveis, fortaleceram a governança corporativa e adotaram uma série de rotinas para cuidar da informática, o que levou ao desenvolvimento gradual das microfundações das Dynamic Capabilties nesses períodos. Em meados dos anos 1990 ocorreram a estabilização institucional e a abertura da economia à concorrência estrangeira, e assim o país colocou-se nas condições que a perspectiva teórica adotada considera ideais para que as Dynamic Capabilities sejam fontes de vantagem competitiva. Os bancos brasileiros mostraram-se preparados para enfrentar essa nova fase, o que é uma evidência de que eles haviam desenvolvido Dynamic Capabilities nas décadas precedentes, sendo que parte desse desenvolvimento podia ser atribuído às turbulências institucionais que eles haviam enfrentado.
Resumo:
Trata das questões de organização e recuperação da informação no caso específico do acervo do Centro de Pesquisa e História Contemporânea do Brasil – CPDOC. Baseia essa análise num estudo de caso do uso do serviço de referência da instituição prestado pela Sala de Consulta e também no utilização da base de dados Accessus. Traça um perfil do usuário do acervo da instituição além de um perfil de pesquisa desses indivíduos ao mapear o comportamento dos usuários diante da ferramenta Accessus. Aborda o contexto da elaboração da base de dados e investiga a criação da linguagem controlada em história e ciências afins que serviu de base para o Accessus. Problematiza as questões de acessibilidade da linguagem a um público não relacionado com a área. Pareia essa problematização com análise dos diferentes perfis de usuários. Discute a forma de indexação do acervo do CPDOC e suscita reflexões sobre esse processo que considere uma relação direta com o perfil dos usuários.
Resumo:
O principal objetivo desse trabalho é identificar o impacto da composição das carteiras dos fundos sobre sua captação no mercado brasileiro. A hipótese central é que, em períodos de crise, a exacerbação da assimetria de informação acerca da qualidade dos ativos faça com que a existência de ativos com exposição ao risco de crédito privado (principalmente Certificados de Depósitos Bancários - CDBs) impacte negativamente a captação. Para testar essa hipótese foram realizadas análises de regressão em painel com dados mensais de fundos de renda fixa e referenciado, exclusivos e não exclusivos, entre 2007 e 2010. Aprofundando a análise, segregaram-se os CDBs entre aqueles emitidos por bancos grandes e médios-pequenos. Dentre os fundos não-exclusivos, encontrou-se que a proporção de CDBs na carteira impactou negativamente a captação de fundos referenciados, ao passo que a presença de CDBs de bancos médios e pequenos impactou negativamente a captação entre os fundos de renda fixa. Nos fundos exclusivos, em que se supõe que o cotista tenha maior poder de intervenção na gestão, não se identificou relação significativa entre exposição a risco de crédito e captação
Resumo:
Este trabalho, apresentado sob forma de dissertação, apesar de limitado .ao universo da gestão dos recursos materiais - GRM, representa uma tentativa para a criação de meios para medir a eficiência e a eficácia da função gerencial. Foram contemplados dois segmentos do universo da GRM: as relações comerciais com os fornecedores e as atividades de gerenciamento interno das diversas funções técnico-administrativas. Nestas, atingimos um amplo espectro, indo desde a infra-estrutura gerencial até os respectivos custos operacionais. Foram consideradas as seguintes funções: • Planejamento e Controle • Aquisição de Material • Controle e Distribuição de Material • Qualidade e Desenvolvimento o desempenho de cada uma das funções é avaliado por meio de indicadores, resultantes da combinação de dados operacionais, tais como: produção, venda, número de empregados envolvidos, valor das aquisições realizadas, custos de aquisição e de estocagem, valor dos estoques, carga transportada, custos de controle de qualidade e outros relacionados à GRM de uma organização. Consideramos que três orientações deste tabalho apresentam certo grau de originalidade. A primeira refere-se ao ajustamento dos valores monetários envolvidos, a fim de adequá-los às características inflacionárias da nossa economia. A segunda é o tratamento estatístico dos dados para que sejam reduzidas eventuais distorções. Assim, teremos indicadores próximos da realidade, baseados em números correntes e expurgados de variações aleatórias. A terceira orientação é o uso da informática para proporcionar a maior disseminação possível dos indicadores, seja na entrada de dados, no ajustamento, no cálculo, na armazenagem, na recuperação, no tratamento estatístico e na análise e criação de padrões de desempenho gerencial. Como anexo à dissertação, estamos incluindo disquetes em 3 1/2" e 5 1/4", contendo software interativo, denominado SIGMAT - Sistema de Indicadores para a Avaliação do Desempenho da Gestão dos Recursos Materiais. Este aplicativo executa todas as propostas apresentadas na presente dissertação.
Resumo:
A área de tecnologia de infonnação (TI) tem sofrido mudanças constantes que, por consequência, impactam diretamente no profissional e nas empresas que trabalham com este setor. O presente estudo visou identificar a questão motivacional na relação do profissional de TI com seu trabalho, assim como a inclinação de carreira destes profissionais. Para tal, primeiramente foi realizado um estudo teórico sobre o tema, de fonna a constituir os alicerces para a pesquisa. Uma vez tendo-se a questão a ser investigada bem definida, foi realizada a pesquisa dentro de um grupo de profissionais de TI e de outro grupo de estudantes de TI como alvo da pesquisa. Foram aplicados questionários fechados com o grupo focal que foi dividido em profissionais e estudantes de TI. Os dois instrumentos utilizados foram o inventário de Valores de Schwartz (IVS) que oferecem algumas perspectivas de valorização do empregado, que correspondem as suas metas e interesses, e o outro instrumento foi o questionário de Edgar Schein sobre inclinação profissional, que pennite identificar a relação e as perspectivas destes com o trabalho e suas vidas. Com os resultados expostos constatou-se, através do Inventário de Valores de Schwartz e do questionário de Inclinação Profissional de Schein, que os estudantes e profissionais de TI aqui pesquisados são indivíduos auto-detenninados, que valorizam o estilo de vida, são benevolentes e hedonistas, buscam o bem-estar e a satisfação no trabalho e adoram desafios.
Resumo:
O termo gestão de processos vem ganhando relevância como forma de gestão dentre as principais organizações em todo o mundo. entretanto o assunto ainda é recente no Brasil. O aumento de demandas relacionadas a este tema gerou inúmeras tecnologias de suporte a sua gestão. o que leva as empresas à necessidade de compreenderem melhor o tema. Michael Hammer propôs um modelo de maturidade em gestão de processos. que além de proporcionar subsídios aos executivos para tomadas de decisão. permite que os envolvidos tenham uma melhor compreensão do nível de maturidade de sua organização. Este trabalho teve como objetivo estudar a viabilidade da aplicação do modelo de maturidade de Michael Hammer. usando como caso prático a área de Tecnologia da Informação de uma grande empresa brasileira. As informações para análise foram compostas por questionários e entrevistas. revisão documental e observação direta. Os resultados obtidos confirmam a importância da compreensão do nível de maturidade da organização para início ou melhoria da gestão de processos. Apesar do estudo confirmar a aplicabilidade do modelo. existem ressalvas importantes a serem consideradas por qualquer área ou organização de TI que queira medir o nível de maturidade em gestão de processos através do modelo proposto.
Resumo:
Por muito tempo, os programas de qualidade e gestão vêm dominando o cenário de soluções para a melhoria das organizações. Nesse contexto, têm sido constantes os modismos e, ao mesmo tempo, o consumo de muitas soluções. E o mercado parece se nutrir desses pacotes. De pacote em pacote, a gestão nas companhias vem se desenvolvendo e se especializando e, junto como isso, os métodos e técnicas da boa gestão. A gestão de riscos, especificamente, vem nesse contexto. Apresenta-se como uma solução em gestão, mas parece se estabelecer como ponto de convergência e de influência na otimização e garantia de processos produtivos, de gestão e de suporte, abrangendo uma gama de possibilidades em diversas disciplinas do mundo empresarial, desde finanças até os aspectos de fraudes e distúrbios cotidianos. Na sequência da gestão de riscos, vem a gestão de crises. Esta, o hemisfério dos riscos transformados em impactos verdadeiros e com danos visíveis para a organização. A gestão de crises pressupõe a gestão dos riscos consumados e que, claramente, afetam a organização e seu contexto, tanto interno quanto externo. No ponto final dessa lógica, aparece a confiança como aquilo que sela o pacto da organização e seus stakeholders, como resultado da boa ou má gestão de riscos e crises. Este estudo é, então, sobre riscos, crises e confiança e sobre o entendimento de como a gestão sobrepõe esses elementos e como isso se aplica às organizações, especificamente a uma grande organização do mercado brasileiro. Após revisão bibliográfica, é feita uma pesquisa para se analisar como está sendo a aplicação dos conceitos e práticas de riscos e crises em uma grande empresa, entrevistando-se o principal executivo da companhia responsável pela gestão de riscos na área de segurança da informação e outro responsável pela gestão de crises. É feita uma pesquisa para se entender a percepção de empregados e gerentes da companhia estudada sobre os conceitos e práticas de gestão de riscos e crises e suas aplicações na companhia. Também é feita uma abordagem sobre confiança, extrapolando-se esse conceito para uma idéia de confiabilidade dessas práticas e propondo uma forma de medir essa confiabilidade, identificada como uma lacuna na gestão de crises. Ao final, é feita uma análise sobre o quanto a aplicação desses conceitos e práticas são sistemáticos ou não, de acordo com as hipóteses e suposições definidas, constatando-se o 9 caráter operacional e a aplicação recente das práticas, um tanto deslocada do modelo de referência proposto para o estudo e com pouca visibilidade por parte dos empregados, principalmente no que tange a percepção de efetividade das práticas adotadas.
Resumo:
A contextualização está em torno de atividades voltadas ao planejamento em função da organização se estruturar sobre bases tecnológicas e sistemicas para gerir os seus processos. A teoria sistêmica aplicada à organização gera a necessidade eminente de integração. Este processo recorre à necessidade de planos estratégicos, onde as definições e metodologias aplicadas devem seguir-se à disciplina focada aos processos que requerem decisão e execução na busca de metas definidas. Neste aspecto, a implantação de sistemas de informação como ferramentas auxiliares aos processos decisórios, eXigem uma sistemática ou metodologia para visualização dos resultados e uso dos mesmos como retorno ao processo de alimentação dos dados, geradores de novas conjecturas decisórias. É necessário o conhecimento básico da organização, o contexto em que a mesma se enquadra, e de que forma deveremos atuar em seu desenvolvimento Para esta adota-se etapas onde analisamos o empreendimento, políticas ou diretrizes organizacionais, a metodologia de implantação sistemicas, associada às reais necessidades da empresa, bem como sua infraestrutura e capacidade de esforço