39 resultados para Modelo de estados críticos
Resumo:
As empresas buscam criar um contexto capacitante no qual a confiança é elemento preponderante para tais objetivos. Em 2002, após os conhecidos escândalos de governança corporativa, o Congresso dos Estados Unidos da América (EUA) sancionou a Lei Sarbanes-Oxley (SOx), com o objetivo de proteger os investidores e resgatar a confiança abalada. Empresas norte-americanas de capital aberto foram obrigadas a adotar códigos de ética corporativos, garantindo a máxima efetividade na prevenção de fraudes praticadas por empregados, sob pena de pesadas sanções cíveis e criminais para as empresas e seus executivos. O presente estudo visa verificar a efetividade dos Códigos de Ética Empresarial (CEE) na percepção do empregado brasileiro de empresa nacional subordinada à SOx. Com base no modelo de Singh (2011), foram analisadas 18 variáveis independentes de efetividade dos códigos de ética corporativos. Os resultados revelaram que 84,4% dos respondentes ao questionário avaliaram positivamente os CEE de suas respectivas empresas. Mas o modelo de Singh (2011) não refletiu integralmente os fatores por ele identificados, permitindo a proposição de um novo modelo de efetividade dos CEE. Novas pesquisas deverão contemplar a análise dos aspectos culturais brasileiros que podem impactar na efetividade dos CEE. Estudos de caso, considerando o universo de funcionários de uma única empresa, poderão aprofundar as pesquisas sobre o tema, além de possibilitar à empresa estudada um diagnóstico mais real da efetividade de seu código de ética.
Resumo:
A partir dos anos 90, muitas organizações perceberam que o conhecimento talvez fosse o recurso mais importante na busca de um diferencial competitivo sustentável. Essas organizações passaram, portanto, a desenvolver processos que pudessem aumentar o seu desempenho através da transferência de conhecimento entre indivíduos. A presente pesquisa analisa parte relevante da bibliografia acerca da transferência do conhecimento em ambientes de projeto e coleta evidências para propor um modelo heurístico que possa explicar como ocorre a transferência do conhecimento dos profissionais certificados em gerenciamento de projetos para a equipe participante desses empreendimentos. Como resultado, nove fatores críticos de sucesso foram identificados: Prática/Experiência, Socialização, Externalização/Codificação, Internalização, Combinação, Infraestrutura Tecnológica, Treinamento, Incentivo Público/Financeiro e Cultura de Compartilhamento. Finalmente, algumas conclusões são desenvolvidas para auxiliar as organizações a alcançar esses fatores e obter os resultados previstos nos empreendimentos em que estão envolvidas, dentro de um mercado globalizado e altamente competitivo.
Resumo:
Estamos vivenciando uma era na qual a convergência entre a tecnologia da informação e a comunicação vem sendo identificada, por diversos estudiosos e acadêmicos, como a responsável pelas mudanças identificadas na sociedade, na economia e na revisão do papel do Estado ocorridas na segunda metade do século XX. Segundo estes pesquisadores, com sua apregoada capacidade de transformação dos conceitos de tempo e espaço, a convergência tecnológica vem introduzindo profundas transformações no modelo de gestão das empresas a partir do momento em que velocidade, flexibilidade, capacidade de integração e capacidade de inovação tornam-se fatores críticos de sucesso para qualquer organização que queira ser bem sucedida na economia atual. Cada vez mais eficácia, eficiência, disponibilidade e produtividade são exigidas dos profissionais, independentemente do nível hierárquico, da especialização ou da localização física de seus escritórios. Essa dissertação tem como objetivo verificar se a utilização de ferramentas oriundas da convergência da tecnologia da informação e comunicação pode ser considerada como um fator determinante para a implementação de uma organização com barreiras fluidas.
Resumo:
Com o crescente número de fabricantes de produtos, serviços e soluções de TI, direcionando boa parte de sua produção ao indivíduo, desenvolvendo dispositivos pessoais móveis, redes sociais, armazenamento remoto de arquivos, aplicativos grátis ou a custos acessíveis a boa parte dos profissionais do mercado de trabalho atual, os indivíduos estão, cada vez mais, se munindo de dispositivos e aplicações para organizar suas vidas, se relacionar com pessoas e grupos sociais e para se entreterem, entre outras coisas. Consequentemente, muitos levam estas tecnologias pessoais para dentro do ambiente corporativo e as utilizam para auxiliar em suas tarefas profissionais. Este fenômeno tem sido chamado, pelos estudos não-científicos sobre o tema, de Consumerização de TI ou BYOD (Bring Your Own Device). O objetivo deste estudo é identificar o conjunto de fatores críticos que as organizações devem levar em consideração no momento em que criam ou aprimoram sua política de utilização de tecnologias pessoais para a condução de atividades corporativas. Para identificar este conjunto de fatores críticos são utilizadas técnicas de análise de conteúdo, para analisar o material coletado, que são estudos não-científicos, tais como: pesquisas de empresas de consultoria na área de administração de TI, estudos de instituições de diferentes indústrias e entrevistas com pesquisadores e profissionais da área de TI e de outras áreas do Brasil e dos Estados Unidos da América. São identificados sete fatores, dos quais, três são críticos à política de utilização de tecnologias pessoais no ambiente corporativo, dois são impulsionadores do fenômeno e dois são fatores beneficiados pelo fenômeno.
Resumo:
A tradicional representação da estrutura a termo das taxas de juros em três fatores latentes (nível, inclinação e curvatura) teve sua formulação original desenvolvida por Charles R. Nelson e Andrew F. Siegel em 1987. Desde então, diversas aplicações vêm sendo desenvolvidas por acadêmicos e profissionais de mercado tendo como base esta classe de modelos, sobretudo com a intenção de antecipar movimentos nas curvas de juros. Ao mesmo tempo, estudos recentes como os de Diebold, Piazzesi e Rudebusch (2010), Diebold, Rudebusch e Aruoba (2006), Pooter, Ravazallo e van Dijk (2010) e Li, Niu e Zeng (2012) sugerem que a incorporação de informação macroeconômica aos modelos da ETTJ pode proporcionar um maior poder preditivo. Neste trabalho, a versão dinâmica do modelo Nelson-Siegel, conforme proposta por Diebold e Li (2006), foi comparada a um modelo análogo, em que são incluídas variáveis exógenas macroeconômicas. Em paralelo, foram testados dois métodos diferentes para a estimação dos parâmetros: a tradicional abordagem em dois passos (Two-Step DNS), e a estimação com o Filtro de Kalman Estendido, que permite que os parâmetros sejam estimados recursivamente, a cada vez que uma nova informação é adicionada ao sistema. Em relação aos modelos testados, os resultados encontrados mostram-se pouco conclusivos, apontando uma melhora apenas marginal nas estimativas dentro e fora da amostra quando as variáveis exógenas são incluídas. Já a utilização do Filtro de Kalman Estendido mostrou resultados mais consistentes quando comparados ao método em dois passos para praticamente todos os horizontes de tempo estudados.
Resumo:
A modelagem da estrutura a termo da taxa juros tem grande relevância para o mercado financeiro, isso se deve ao fato de ser utilizada na precificação de títulos de crédito e derivativos, ser componente fundamental nas políticas econômicas e auxiliar a criação de estratégias trading. A classe de modelos criada por Nelson-Siegel (1987), foi estendida por diversos autores e atualmente é largamente utilizada por diversos bancos centrais ao redor do mundo. Nesse trabalho utilizaremos a extensão proposta por Diebold e Li (2006) aplicada para o mercado brasileiro, os parâmetros serão calibrados através do Filtro de Kalman e do Filtro de Kalman Estendido, sendo que o último método permitirá estimar com dinamismo os quatros parâmetros do modelo. Como mencionado por Durbin e Koopman (2012), as fórmulas envolvidas no filtro de Kalman e em sua versão estendida não impõe condições de dimensão constante do vetor de observações. Partindo desse conceito, a implementação dos filtros foi feita de forma a possibilitar sua aplicação independentemente do número de observações da curva de juros em cada instante de tempo, dispensando a necessidade de interpolar os dados antes da calibração. Isso ajuda a refletir mais fielmente a realidade do mercado e relaxar as hipóteses assumidas ao interpolar previamente para obter vértices fixos. Também será testada uma nova proposta de adaptação do modelo de Nelson-Siegel, nela o parâmetro de nível será condicionado aos títulos terem vencimento antes ou depois da próxima reunião do Copom. O objetivo é comparar qualidade da predição entre os métodos, pontuando quais são as vantagens e desvantagens encontradas em cada um deles.
Resumo:
Este estudo objetiva estimar a demanda regional de diesel para os próximos 10 anos no Brasil através de uma abordagem top down. Foram testadas as variáveis que mais contribuem com a projeção do consumo de diesel, chegando-se à conclusão de que o PIB e o preço são bastante relevantes. Os melhores modelos econométricos com resultados mais aderentes às projeções dentro e fora da amostra foram: (i) com correção de erros e (ii) com as variáveis em diferença. Concluímos ao longo desta dissertação, que o acionamento das térmicas com geradores a óleo diesel em períodos específicos, como os últimos anos, afetam substancialmente o consumo do combustível. Para a desagregação do consumo nacional foram analisados modelos regressivos congruentes na totalização, como o utilizado por Moreira (1986), modelos com fatores proporcionais fixos baseados no crescimento histórico de 5 anos e modelos mais simples de médias proporcionais - estes últimos com resultados inferiores. Na projeção de um Cenário Base, com PIB crescendo 2,5% ao ano nos próximos 10 anos, em algumas regiões do Brasil, como o conjunto dos estados do Maranhão, Tocantins e Piauí, deverá crescer o consumo de diesel em 40%, enquanto no Rio Grande do Sul, apenas 21%.
Resumo:
O presente trabalho pretende descrever e analisar a evolução institucional da Internet Corporation for Assigned Names and Numbers (ICANN), organização responsável pela gestão dos nomes de domínio e protocolos de comunicação entre computadores em rede ao redor do mundo. Iniciando sua trajetória como instituição privada estadunidense e vinculada ao departamento de comércio do mesmo país, a ICANN passa por diversas modificações estruturais ao longo da última década, de forma a englobar representantes de diversos setores sociais em suas atividades. Algumas peculiaridades em sua estrutura que ainda a vinculam aos Estados Unidos, no entanto, são objeto de controvérsia entre aqueles que buscam uma democratização da internet em nível global.
Resumo:
O ‘Projeto Democracia Digital’ investiga iniciativas governamentais e da sociedade civil de eDemocracia a partir das ações que se relacionam com a transparência pública, a participação digital e a disponibilização de dados abertos. Busca-se criar um ambiente de reflexão, interação, compartilhamento e debates sobre o fomento à participação popular, capaz de aprimorar o espaço político-democrático, auxiliando na compreensão do complexo modelo jurídico que organiza os canais de participação democrática e dos desafios da gestão pública brasileira ao implementá-los. O projeto tem duas vertentes. A equipe de pesquisadores da FGV Direito SP investiga o uso das Tecnologias de Informação e Comunicação (TICs) pela sociedade civil e a equipe de pesquisadores da FGV-EAESP foca o uso das TICs pelos governo municipais, estaduais e federal. Este relatório apresenta os resultados da equipe FGV-EAESP na etapa empírica, cujo objetivo é prospectar, analisar e mapear iniciativas governamentais de dados abertos, de transparência e de participação digital. Com isso, busca-se entender como os governos brasileiros estão se apropriando da tecnologia da informação na disponibilização de dados abertos e na execução de iniciativas de transparência e de participação digital, apontando os desafios enfrentados por governos e gestores públicos no país. A metodologia empregada consistiu em um conjunto de métodos quantitativos e qualitativos, e a fonte principal foram dados primários coletados a partir da observação de sites dos governos federal, estaduais e municipais. O procedimento de busca das iniciativas foi diferente para cada uma das três dimensões: Transparência, eParticipação e Dados Abertos, e será detalhado no relatório de cada tema. Ao todo foram visitados: 125 websites governamentais, 18 portais de dados abertos (ou de transparência que indicam a existência de arquivos em formato aberto) e 18 portais de iniciativas de eParticipação. A coleta de dados permitiu uma análise comparada entre as diferentes esferas de governo. A metodologia compreendeu também workshops com especialistas para validação dos instrumentos de pesquisa, antes do campo, e discussão dos resultados, após o campo. Encontrou-se um cenário de avanços em relação à prática dos anos recentes, porém de muitos desafios. Em suma, para transparência os resultados indicam que os dados disponibilizados são voltados principalmente para o atendimento das exigências legais e que há desigualdade entre a transparência dos governos observados. Para dados abertos, ainda é incipiente no Brasil a criação de portais de dados abertos e os dados financeiros são os mais disponibilizados. Já para eParticipação, percebeu-se que as iniciativas se preocupam mais em informar os governos sobre a vontade pública do que em permitir a tomada de decisões pelos participantes envolvidos. O relatório está dividido em três volumes: volume 1 - Panorama da transparência governamental no Brasil; volume 2 - Experiências governamentais brasileiras de eParticipação e volume 3 - Dados abertos nos municípios, estados e governo federal brasileiro. Este volume apresenta o panorama de dados abertos nos Executivos de todas as esferas governamentais brasileiras.