976 resultados para Administração do tempo
Resumo:
A pesquisa teve como objetivo analisar a relação entre consumo e renda agregados das famílias no Brasil para os últimos 60 anos. Para realizar esta análise, foi utilizado a metodologia econométrica sugerida por Bierens e Martins (2010), que consiste na estimação de Vetor Autoregressivo com Mecanismo de Correção de Erros (VECM) similar ao modelo proposto por Johansen (1988), porém permitindo que vetor de cointegração varie ao longo do tempo. Este modelo estimado mostrou-se melhor comparado à análise tradicional de Johansen (1988).
Resumo:
O ERRO, fenômeno sempre presente nas nossas vidas, e a LIDERANÇA, tópico mais estudado em Ciências Sociais, são o foco e os temas desta dissertação. Com uma abordagem moderadamente positivista, dois questionários (EOQ e MLQ) foram aplicados a 125 líderes em 27 organizações no Brasil. A partir dos dados coletados, buscou-se avaliar exploratoriamente as correlações entre os fatores de tratamento do erro e os fatores que medem os estilos de liderança, segundo um dos modelos da Escola Transformacional. Também foram realizadas múltiplas regressões para se verificar de que forma os fatores de liderança poderiam predizer os de tratamento do erro. A pesquisa exploratória produzida neste trabalho traz importantes relações entre os fatores que compõem os dois construtos: por exemplo, Consideração Individual é significativo ao estimular o Aprendendo com os Erros, este achado pode ser facilmente aplicado em diferentes organizações e de forma independente de grupos. O receio e o medo, causados pelo erro, crescem com uma Gestão por Exceção (passiva) e, diminuem, caso haja o compartilhamento dos objetivos e da visão de longo prazo pelo líder. A Antecipação ao Erro também apresenta diferenças entre fatores característicos da Liderança Transformacional e do estilo Laissez-Faire. Enquanto o desafio das idéias, valores e crenças pelo líder eleva a Antecipação ao Erro, uma Gestão por Exceção (passiva) reduz a mesma. Pensando sobre Erros também apresenta relações inversas para os estilos de Liderança Transacional e Laissez-Faire. O tempo como gestor e o tempo na posição também apareceram como significativos para Tensão Causada pelo Erro, Antecipação ao Erro e Pensando sobre os Erros, todos eles fatores do Questionário de Orientação para o Erro (EOQ). Os resultados encontrados são muito úteis, por terem aplicação para as organizações e para os indivíduos, e podem ser usados em processos de seleção, treinamento e na avaliação da adequação do estilo dos líderes para o ambiente da organização. O estudo conclui com argumentos que é fundamental que o ERRO faça parte da agenda das organizações, bem como que os líderes o assumam no seu dia a dia.
Resumo:
Neste artigo, foi estimada a taxa natural de juros para a economia brasileira entre o final de 2001 e segundo trimestre de 2010 com base em dois modelos, sendo o primeiro deles o proposto por Laubach e Williams e o segundo proposto por Mesónnier e Renne, que trata de uma versão alterada do primeiro, que segundo os autores perimite uma estimação mais transparente e robusta. Em ambos os modelos, a taxa natural de juros é estimada em conjunto com o produto potencial, através de filtro de Kalman, no formato de um modelo Espaço de Estado. As estimativas provenientes dos dois modelos não apresentam diferenças relevantes, o que gera maior confiabilidade nos resultados obtidos. Para o período de maior interesse deste estudo (pós-2005), dada a existência de outras análises para período anterior, as estimativas mostram que a taxa natural de juros está em queda na economia brasileira desde 2006. A mensuração da taxa natural de juros, adicionalmente, possibilitou que fosse feita uma avaliação sobre a condução da política monetária implementada pelo Banco Central brasileiro nos últimos anos através do conceito de hiato de juros. Em linhas gerais, a análise mostrou um Banco Central mais conservador entre o final de 2001 e 2005, e mais próximo da neutralidade desde então. Esta conclusão difere da apontada por outros estudos, especialmente para o primeiro período.
Resumo:
A difusão das doutrinas de gerenciamento orientadas para resultados no Brasil tem levado as organizações públicas a realizarem investimentos relevantes em tecnologia da informação como um componente de transparência para as ações governamentais e como suporte para a tomada de decisões pelos gestores públicos. O uso intensivo da informática em um mundo cada vez mais interconectado expõe a administração pública a novos tipos de ameaças e vulnerabilidades. Nesse contexto, as entidades de fiscalização devem ampliar sua forma de atuação, realizando controles mais rigorosos por meio de técnicas próprias de auditorias de tecnologia da informação, que visam assegurar a integridade e segurança dos dados que trafegam pelas redes e sistemas de informação. O objetivo da presente pesquisa consistiu em identificar as principais impropriedades associadas ao uso da informática nas administrações municipais sob a jurisdição do TCE-RJ, por meio do estudo de caso de sua experiência na realização de auditorias operacionais em tecnologia da informação. A pesquisa foi realizada com base na literatura e na análise dos achados das auditorias de sistemas, mostrando que este tipo de auditoria tem contribuído para tornar a gestão pública municipal mais eficiente, eficaz e transparente.
Resumo:
O trabalho tem como objetivo analisar a relação entre consumo e renda agregados das famílias no Brasil para os últimos 60 anos. Para realizar esta análise, foi utilizado a metodologia econométrica construída por Bierens e Martins (2010), que consiste na estimação de Vetor Autoregressivo com Mecanismo de Correção de Erros (VECM) similar ao modelo proposto por Johansen (1988), porém permitindo que o vetor de cointegração varie ao longo do tempo. Este modelo estimado mostrou-se melhor comparado a análise tradicional de Johansen (1988). Os resultados obtidos neste trabalho sugerem que a dinâmica do consumo e da renda variou ao longo do período amostral e que o consumo brasileiro parece não ser bem descrito por um passeio aleatório.
Resumo:
Este trabalho tem como objetivo analisar as perspectivas de implantação da Qualidade Total na administração pública, a partir de um estudo de caso, que teve como escopo a Prefeitura da Cidade do Rio de Janeiro. Neste aspecto, a metodologia utilizada buscou referenciar a utilização da Qualidade Total como uma técnica de desenvolvimento organizacional aplicável a organizações complexas, que têm como fator de direcionamento, não só as estratégias de produtividade e lucratividade, mas sim um componente político, que invariavelmente não contempla os objetivos acima. Como fonna de facilitar o fluxo da pesquisa, desenvolveu-se uma metodologia de dia!:,'11óstico situacional embasada nos critérios do Prêmio Nacional da Qualidade, o que pennitiu vislumbrar na organização facilidades e dificuldades para a implantação da técnica.. Os resultados, demonstraram claramente que ao se 1l1lcmr um programa de mudança organizacional, é necessária uma análise acerca destas condições, sob pena de inviabilizar o trabalho.
Resumo:
A doença de Marek (MD), causada por um alfaherpesvírus, é uma enfermidade linfoproliferativa que acomete principalmente galinhas. Como não existe tratamento, a melhor forma de prevenção e controle da MD é através do uso de vacinas atenuadas, que vêm sendo usadas desde 1970. Este trabalho descreve a análise de vacinas vivas congeladas contra o sorotipo 3 do vírus da doença de Marek (herpesvírus de peru – HVT) por PCR em tempo real (qPCR) e por cultivo em células de embrião de galinha. Foram avaliadas três vacinas (cepa FC126) provenientes de distintos fabricantes. As análises da homogeneidade inter e intra-lote apresentaram, respectivamente, média ± desvio padrão de 2,6 ± 1,7%, 2,1 ± 1,1% e 1,2 ± 0,1% e média ± desvio padrão de 1,5 ± 0,1%, 1,2 ± 0,8% e 1,0 ± 0,3% para A, B e C, respectivamente. A qPCR subestimou os títulos das vacinas concentradas 4x e superestimou os títulos das vacinas diluídas 8x, enquanto o cultivo celular superestimou os títulos das vacinas concentradas. As vacinas apresentaram quantidades diferentes de células/dose e unidade formadoras de placa/dose. Conseqüentemente, a relação PFU/célula também foi diferente, o que demonstra a necessidade de construção de curvas diferentes, para cada fabricante, para a titulação por qPCR.
Resumo:
Com o intuito de utilizar uma rede com protocolo IP para a implementação de malhas fechadas de controle, este trabalho propõe-se a realizar um estudo da operação de um sistema de controle dinâmico distribuído, comparando-o com a operação de um sistema de controle local convencional. Em geral, a decisão de projetar uma arquitetura de controle distribuído é feita baseada na simplicidade, na redução dos custos e confiabilidade; portanto, um diferencial bastante importante é a utilização da rede IP. O objetivo de uma rede de controle não é transmitir dados digitais, mas dados analógicos amostrados. Assim, métricas usuais em redes de computadores, como quantidade de dados e taxa de transferências, tornam-se secundárias em uma rede de controle. São propostas técnicas para tratar os pacotes que sofrem atrasos e recuperar o desempenho do sistema de controle através da rede IP. A chave para este método é realizar a estimação do conteúdo dos pacotes que sofrem atrasos com base no modelo dinâmico do sistema, mantendo o sistema com um nível adequado de desempenho. O sistema considerado é o controle de um manipulador antropomórfico com dois braços e uma cabeça de visão estéreo totalizando 18 juntas. Os resultados obtidos mostram que se pode recuperar boa parte do desempenho do sistema.
Resumo:
O cenário empresarial atual leva as empresas a terem atuações cada vez mais dinâmicas, buscando utilizar as informações disponíveis de modo a melhorar seu processo de decisão. Com esse objetivo, diversas organizações têm adquirido sistemas de business intelligence. O processo de seleção de sistemas é difícil, diferente do utilizado em outras aquisições empresariais e sofre influência de diversos aspectos intangíveis, o que impossibilita o uso das técnicas de análise financeira normalmente utilizadas pelas companhias para apoiar decisões de investimento. Dessa forma, pode-se dizer que a decisão de escolha de um software de business intelligence é baseada em um conjunto de fatores tanto tangíveis quanto intangíveis. Este trabalho teve como objetivo principal identificar e estabelecer um ranking dos principais fatores que influenciam a decisão de escolha entre sistemas de business intelligence, tendo como foco empresas do setor de incorporação imobiliária atuantes na grande São Paulo e como objetivo secundário procurar identificar a possível existência de aspectos determinantes para a decisão de escolha entre a lista de fatores apurados. Essa pesquisa foi realizada através de doze entrevistas com pessoas que participaram de processos de decisão de escolha de sistemas de business intelligence, sendo algumas da área de TI e outras de área de negócio, atuantes em sete empresas incorporadoras da grande São Paulo. Essa avaliação teve como resultado a identificação dos fatores mais importantes e a sua classificação hierárquica, possibilitando a apuração de um ranking composto pelos catorze fatores mais influentes na decisão de escolha e statisticamente válido segundo o coeficiente de concordância de Kendall. Desse total, apenas três puderam ser classificados como determinantes ou não determinantes; o restante não apresentou padrões de resposta estatisticamente válidos para permitir conclusões sobre esse aspecto. Por fim, após a análise dos processos de seleção utilizados pelas sete empresas dessa pesquisa, foram observadas duas fases, as quais sofrem influência de distintos fatores. Posteriormente, estudando-se essas fases em conjunto com os fatores identificados no ranking, pôde-se propor um processo de seleção visando uma possível redução de tempo e custo para a realização dessa atividade. A contribuição teórica deste trabalho está no fato de complementar as pesquisas que identificam os fatores de influência no processo de decisão de escolha de sistemas, mais especificamente de business intelligence, ao estabelecer um ranking de importância para os itens identificados e também o relacionamento de fatores de importância a fases específicas do processo de seleção identificadas neste trabalho.
Resumo:
O Estado exerce a função jurisdicional com a finalidade de composição dos conflitos litigiosos, sendo o processo o meio pelo qual ela se materializa. Com isso, tem-se o acesso à justiça, no sentido de ser garantido o exame de uma pretensão, em tempo aceitável, com a segurança de um tratamento adequado, que seja reflexo dos valores da sociedade em que se vive. O Poder Judiciário sofre críticas de toda ordem: no Brasil dos dias atuais, a morosidade é o principal problema apontado. Tanto é assim, que a sociedade brasileira passou a exigir uma solução para isso com tamanha ênfase, que a razoável duração do processo foi incluída no rol de garantias individuais da Constituição da República. Muitas alternativas têm sido buscadas com a intenção de reduzir o tempo de duração do processo, sendo a via eletrônica uma dessas opções. No ano de 2006, entrou em vigor a Lei n. 11.419, que trata da informatização do processo judicial. Este estudo realizou uma avaliação do contexto que levou à busca pela rápida solução dos litígios, com análise da lei que instituiu o meio eletrônico na tramitação dos processos, restrito a esta ótica de redução do tempo de duração do processo. Com base em um estudo de caso realizado no 4o Juizado Especial Cível da Comarca de Porto Velho, demonstrou- se que, ao menos nesta unidade jurisdicional, houve efetiva diminuição no tempo de duração dos processos. Ponderou-se, ainda, acerca do software livre que está sendo disponibilizado pelo Conselho Nacional de Justiça para uso por parte dos tribunais, o Processo Judicial eletrônico – PJe, concluindo-se que a ferramenta terá condições de servir de instrumento para redução do termo final do processo. Finalizou-se esta dissertação com considerações sobre tudo o que foi estudado, ressaltando a idéia de que todos os atores que atuam na solução dos conflitos devem contribuir para que seja alcançada a paz.
Resumo:
Este estudo teve o objetivo de examinar a contribuição do processo eletrônico na redução do tempo médio de tramitação do processo. Para alcançar este objetivo, realizou-se pesquisa descritiva documental, com dados de campo coletados, em junho de 2009, em catorze Juizados Especiais Federais e três Turmas Recursais da 2ª Região, totalizando 1444 processos (físicos e eletrônicos) que atingiram a baixa finda no referido mês. Os principais resultados indicam que, no período observado, o processo eletrônico foi mais célere do que o processo físico, alcançando, em média, 70% de redução do tempo de tramitação do processo. Sustentam também que essa redução é variável no tempo transcorrido entre fases distintas do processo. Nesse contexto, propõe-se a criação de indicador de Tempo Médio de Tramitação do Processo, que indique a ocorrência atualizada de cada fase selecionada, em comparação com o passado, pois ambos constituem referência para análise e estudo de situações e tomadas de decisão relativas à celeridade na prestação jurisdicional, sem perda da qualidade dos resultados já obtidos. Em síntese, os resultados sustentam a premissa de que o processo eletrônico é uma das ferramentas valiosas para combater a morosidade no Poder Judiciário e auxiliar no aumento do Índice de Confiança na Justiça no Brasil, fortalecendo o Poder Judiciário e ampliando o acesso à Justiça. Ao final, apresentam-se conclusões e sugestões que têm em vista acelerar e ampliar o acesso à justiça.
Resumo:
Foram comparados os resultados de quatro estratégias de investimento associadas ao efeito momentum que utilizam a cotação máxima dos ativos nas últimas 52 semanas como critério de escolha das ações. Os resultados das estratégias foram comparados entre si e também em relação ao IBOVESPA no período de 03/01/2000 e 01/07/2010. Em todas elas é encontrado um índice resultante da divisão do preço do ativo na data de composição do portfólio pela sua cotação máxima nas últimas 52 semanas, de acordo com este índice são escolhidos os portfólios comprados, neutros e vendidos. Primeiramente, foram reproduzidas uma estratégia ativa (I52- ATIVA) e outra neutra (I52-NEUTRA) de acordo com a proposta de George e Hwang (2004). As outras duas estratégias (I52-PESOATIVA e I52-PESONEUTRA) apresentam uma extensão da proposta inicial de George e Hwang (2004), em que é adicionado um fator de peso que pondera o tempo decorrido entre a data de ocorrência da cotação máxima observada nas últimas 52 semanas e a data de composição dos portfólios; o objetivo desta extensão é verificar se a data de ocorrência da cotação máxima é um diferencial para a estratégia momentum. Houve destaque, sob os diversos critérios analisados, das estratégias que utilizaram o fator de ponderação do tempo decorrido entre a data de ocorrência da cotação máxima observada nas últimas 52 semanas e a data de composição dos portfólios, mostrando que este critério pode contribuir positivamente para a composição da estratégia original proposta por George e Hwang (2004). O trabalho corrobora os resultados apresentados nos trabalhos de Jegadeesh e Titman (1993) e de George e Hwang (2004) e denota um desafio à visão de que os mercados são eficientes na forma semi-forte, conforme proposto por Fama (1970), afinal foram construídos a partir de informações públicas e de ampla divulgação e mesmo assim apresentam algum fator preditivo nos retornos futuros.
Resumo:
O estudo que ora apresentamos nesta dissertação tem como objetivo principal a descrição e análise de projetos e atividades desenvolvidas no âmbito da Diretoria de Treinamento de Recursos Humanos da Fundaçio Escola de Serviço Público do Rio de Janeiro (DTRH/FESP), período 1983/86, referenciando-as vis-avis ao contexto econômico e político-social vigente à época.
Resumo:
Este trabalho analisa o desenvolvimento de dynamic capabilities em um contexto de turbulência institucional, diferente das condições em que esta perspectiva teórica costuma ser estudada. É feito um estudo de caso histórico e processual que analisa o surgimento das Dynamic Capabilities nos bancos brasileiros, a partir do desenvolvimento da tecnologia bancária que se deu entre os anos 1960 e 1990. Baseando-se nas proposições da Estratégia que analisam as vantagens competitivas das empresas através de seus recursos, conhecimentos e Dynamic Capabilities, é construído um framework com o qual são analisados diversos depoimentos dados ao livro “Tecnologia bancária no Brasil: uma história de conquistas, uma visão de futuro” (FONSECA; MEIRELLES; DINIZ, 2010) e em entrevistas feitas para este trabalho. Os depoimentos mostram que os bancos fizeram fortes investimentos em tecnologia a partir da reforma financeira de 1964, época em que se iniciou uma sequência de períodos com características próprias do ponto de vista institucional. Conforme as condições mudavam a cada período, os bancos também mudavam seu processo de informatização. No início, os projetos eram executados ad hoc, sob o comando direto dos líderes dos bancos. Com o tempo, à medida que a tecnologia evoluía, a infraestrutura tecnológica crescia e surgiam turbulências institucionais, os bancos progressivamente desenvolveram parcerias entre si e com fornecedores locais, descentralizaram a área de tecnologia, tornaram-se mais flexíveis, fortaleceram a governança corporativa e adotaram uma série de rotinas para cuidar da informática, o que levou ao desenvolvimento gradual das microfundações das Dynamic Capabilties nesses períodos. Em meados dos anos 1990 ocorreram a estabilização institucional e a abertura da economia à concorrência estrangeira, e assim o país colocou-se nas condições que a perspectiva teórica adotada considera ideais para que as Dynamic Capabilities sejam fontes de vantagem competitiva. Os bancos brasileiros mostraram-se preparados para enfrentar essa nova fase, o que é uma evidência de que eles haviam desenvolvido Dynamic Capabilities nas décadas precedentes, sendo que parte desse desenvolvimento podia ser atribuído às turbulências institucionais que eles haviam enfrentado.