989 resultados para Tempo de execução
Resumo:
Os programas sociais constituem, nos últimos dez anos, uma das respostas mais freqüentes aos problemas de desigualdade social. No Brasil, o Programa Bolsa Família (PBF) tem adquirido ampla relevância nacional tanto devido ao seu objetivo principal reduzir a pobreza e desigualdade presente e futura – como também pelo seu tamanho e abrangência. A eficácia e a qualidade do PBF, porém, só podem ser medidas por meio de mecanismos corretos de avaliação. Considerando as características do programa, foram selecionadas da Pnad de 2006 subamostras de grupos demográficos (famílias compostas por casais e/ou mães não casadas com filhos menores de 15 anos) com a finalidade de avaliar se o tratamento fornecido pelo PBF afetou a alocação de tempo dos membros da família beneficiária. Utilizando métodos apropriados de separação dos grupos de tratamento e controle, como o desenho de regressão descontínua, verificou-se que há redução da oferta de trabalho em suas margens intensiva e extensiva. Controlando o fator “manipulação” da regra de seleção, a partir da identificação de episódios de desocupação dos indivíduos ao longo do período de um ano, observou-se, ainda, que o PBF proporcionou impactos negativos na margem intensiva de trabalho dos adultos, principalmente das mães. Além disso, constatou-se que o PBF foi pouco eficaz na queda da participação das crianças de seis até quinze anos na força de trabalho, embora tenha proporcionado uma redução nas horas trabalhadas remuneradas em substituição por freqüência à escola.
Resumo:
Este trabalho examina hipóteses de microestrutura de mercado nos dados de minicontratos futuros do Ibovespa divulgados em alta frequência pelo sinal de market data da BM&FBOVESPA. Para a análise, foi utilizado o modelo de duração condicional autoregressivo, o qual permite o tratamento estatístico de séries financeiras que possuem distribuição em espaços irregulares de tempo e padrões condicionais ao conjunto de informações disponíveis no mercado. A contribuição deste trabalho reside na validação das premissas sobre microestrutura nos mercados de futuros de índice, que são diferentes dos mercados de ações, pois não existe a figura do formador de mercado, e a literatura global sugere que o efeito da assimetria de informação é insignificante na formação de preços devido à diversificação de ativos dos índices. Em contrapartida, o especulador é o provedor de liquidez neste mercado, e seu papel na intensidade de negociação, volume e spread é avaliado. Os resultados confirmam a relação negativa entre intensidade de negociação, volume e spread e corroboram a tese de que a liquidez de mercado pode ser entendida como o preço pela demanda por execução imediata de negócios.
Resumo:
A pesquisa teve como objetivo analisar a relação entre consumo e renda agregados das famílias no Brasil para os últimos 60 anos. Para realizar esta análise, foi utilizado a metodologia econométrica sugerida por Bierens e Martins (2010), que consiste na estimação de Vetor Autoregressivo com Mecanismo de Correção de Erros (VECM) similar ao modelo proposto por Johansen (1988), porém permitindo que vetor de cointegração varie ao longo do tempo. Este modelo estimado mostrou-se melhor comparado à análise tradicional de Johansen (1988).
Resumo:
Neste artigo, foi estimada a taxa natural de juros para a economia brasileira entre o final de 2001 e segundo trimestre de 2010 com base em dois modelos, sendo o primeiro deles o proposto por Laubach e Williams e o segundo proposto por Mesónnier e Renne, que trata de uma versão alterada do primeiro, que segundo os autores perimite uma estimação mais transparente e robusta. Em ambos os modelos, a taxa natural de juros é estimada em conjunto com o produto potencial, através de filtro de Kalman, no formato de um modelo Espaço de Estado. As estimativas provenientes dos dois modelos não apresentam diferenças relevantes, o que gera maior confiabilidade nos resultados obtidos. Para o período de maior interesse deste estudo (pós-2005), dada a existência de outras análises para período anterior, as estimativas mostram que a taxa natural de juros está em queda na economia brasileira desde 2006. A mensuração da taxa natural de juros, adicionalmente, possibilitou que fosse feita uma avaliação sobre a condução da política monetária implementada pelo Banco Central brasileiro nos últimos anos através do conceito de hiato de juros. Em linhas gerais, a análise mostrou um Banco Central mais conservador entre o final de 2001 e 2005, e mais próximo da neutralidade desde então. Esta conclusão difere da apontada por outros estudos, especialmente para o primeiro período.
Resumo:
O trabalho tem como objetivo analisar a relação entre consumo e renda agregados das famílias no Brasil para os últimos 60 anos. Para realizar esta análise, foi utilizado a metodologia econométrica construída por Bierens e Martins (2010), que consiste na estimação de Vetor Autoregressivo com Mecanismo de Correção de Erros (VECM) similar ao modelo proposto por Johansen (1988), porém permitindo que o vetor de cointegração varie ao longo do tempo. Este modelo estimado mostrou-se melhor comparado a análise tradicional de Johansen (1988). Os resultados obtidos neste trabalho sugerem que a dinâmica do consumo e da renda variou ao longo do período amostral e que o consumo brasileiro parece não ser bem descrito por um passeio aleatório.
Resumo:
A doença de Marek (MD), causada por um alfaherpesvírus, é uma enfermidade linfoproliferativa que acomete principalmente galinhas. Como não existe tratamento, a melhor forma de prevenção e controle da MD é através do uso de vacinas atenuadas, que vêm sendo usadas desde 1970. Este trabalho descreve a análise de vacinas vivas congeladas contra o sorotipo 3 do vírus da doença de Marek (herpesvírus de peru – HVT) por PCR em tempo real (qPCR) e por cultivo em células de embrião de galinha. Foram avaliadas três vacinas (cepa FC126) provenientes de distintos fabricantes. As análises da homogeneidade inter e intra-lote apresentaram, respectivamente, média ± desvio padrão de 2,6 ± 1,7%, 2,1 ± 1,1% e 1,2 ± 0,1% e média ± desvio padrão de 1,5 ± 0,1%, 1,2 ± 0,8% e 1,0 ± 0,3% para A, B e C, respectivamente. A qPCR subestimou os títulos das vacinas concentradas 4x e superestimou os títulos das vacinas diluídas 8x, enquanto o cultivo celular superestimou os títulos das vacinas concentradas. As vacinas apresentaram quantidades diferentes de células/dose e unidade formadoras de placa/dose. Conseqüentemente, a relação PFU/célula também foi diferente, o que demonstra a necessidade de construção de curvas diferentes, para cada fabricante, para a titulação por qPCR.
Resumo:
Com o intuito de utilizar uma rede com protocolo IP para a implementação de malhas fechadas de controle, este trabalho propõe-se a realizar um estudo da operação de um sistema de controle dinâmico distribuído, comparando-o com a operação de um sistema de controle local convencional. Em geral, a decisão de projetar uma arquitetura de controle distribuído é feita baseada na simplicidade, na redução dos custos e confiabilidade; portanto, um diferencial bastante importante é a utilização da rede IP. O objetivo de uma rede de controle não é transmitir dados digitais, mas dados analógicos amostrados. Assim, métricas usuais em redes de computadores, como quantidade de dados e taxa de transferências, tornam-se secundárias em uma rede de controle. São propostas técnicas para tratar os pacotes que sofrem atrasos e recuperar o desempenho do sistema de controle através da rede IP. A chave para este método é realizar a estimação do conteúdo dos pacotes que sofrem atrasos com base no modelo dinâmico do sistema, mantendo o sistema com um nível adequado de desempenho. O sistema considerado é o controle de um manipulador antropomórfico com dois braços e uma cabeça de visão estéreo totalizando 18 juntas. Os resultados obtidos mostram que se pode recuperar boa parte do desempenho do sistema.
Resumo:
Este trabalho tem como objetivo analisar as competências da ANATEL, para verificar até que ponto a efetividade das suas competências impactam o alcance da sua missão institucional. Procura analisar se a tão propalada "independência", atribuída a essa organização, é respaldada pela efetividade de suas competências e pela introdução de componentes de flexibilidade e pela autonomia ao seu modelo de gestão, de modo a permitir que ela alcance a sua missão. A metodologia de trabalho incluiu a pesquisa documental e a realização de entrevistas semi-estruturadas com agentes que interagem com a organização. A efetividade das competências foi analisada de acordo com critérios pré-definidos, utilizando como apoio uma Matriz Multicritério, construída especificamente para este fim, tendo, em seguida, sido verificada a relação dessa efetividade com o alcance da missão da agência. A relevância deste estudo prende-se à ênfase dada à atuação das agências reguladoras brasileiras, cuja implantação tem suscitado múltiplos debates, que vão desde as questões de natureza jurídica àquelas relacionadas com os impactos de sua atuação. Justifica-se, também, pela oportunidade de analisar até que ponto a realidade das agências reguladoras encontra-se em consonância com as bases conceituais que lhe deram origem Os resultados obtidos levaram a conclusões que alertam os administradores das agências reguladoras; os responsáveis pela formulação das políticas públicas; e os responsáveis pelo controle das organizações públicas a reverem os referenciais adotados na gestão e no controle daquelas organizações. Quer, além disso, estimular o debate e a continuidade de pesquisas sobre o tema.
Resumo:
O Estado exerce a função jurisdicional com a finalidade de composição dos conflitos litigiosos, sendo o processo o meio pelo qual ela se materializa. Com isso, tem-se o acesso à justiça, no sentido de ser garantido o exame de uma pretensão, em tempo aceitável, com a segurança de um tratamento adequado, que seja reflexo dos valores da sociedade em que se vive. O Poder Judiciário sofre críticas de toda ordem: no Brasil dos dias atuais, a morosidade é o principal problema apontado. Tanto é assim, que a sociedade brasileira passou a exigir uma solução para isso com tamanha ênfase, que a razoável duração do processo foi incluída no rol de garantias individuais da Constituição da República. Muitas alternativas têm sido buscadas com a intenção de reduzir o tempo de duração do processo, sendo a via eletrônica uma dessas opções. No ano de 2006, entrou em vigor a Lei n. 11.419, que trata da informatização do processo judicial. Este estudo realizou uma avaliação do contexto que levou à busca pela rápida solução dos litígios, com análise da lei que instituiu o meio eletrônico na tramitação dos processos, restrito a esta ótica de redução do tempo de duração do processo. Com base em um estudo de caso realizado no 4o Juizado Especial Cível da Comarca de Porto Velho, demonstrou- se que, ao menos nesta unidade jurisdicional, houve efetiva diminuição no tempo de duração dos processos. Ponderou-se, ainda, acerca do software livre que está sendo disponibilizado pelo Conselho Nacional de Justiça para uso por parte dos tribunais, o Processo Judicial eletrônico – PJe, concluindo-se que a ferramenta terá condições de servir de instrumento para redução do termo final do processo. Finalizou-se esta dissertação com considerações sobre tudo o que foi estudado, ressaltando a idéia de que todos os atores que atuam na solução dos conflitos devem contribuir para que seja alcançada a paz.
Resumo:
Esta dissertação trata da modernização da Justiça trazida pela Carta Magna de 1988 e pela Reforma do Judiciário realizada através da Emenda Constitucional 45/2004, em conjunto e com especial ênfase para o princípio da eficiência acrescido ao artigo 37, caput pela Emenda 19/1998. Busca descobrir o que se entende por eficiência em administração, em administração pública e no Poder Judiciário. Apresentou as Operações Justiça Rápida Itinerante e Justiça Rápida de Execução Penal implantadas na Justiça estadual de Rondônia como estudo de caso, visando apurar se elas podem ser consideradas efetiva modernização da Justiça e se atendem ao princípio da eficiência nas suas execuções. Foi feito um apanhado dos antecedentes históricos das reformas mais importantes realizadas no Estado brasileiro durante o século XX e das reformas do Judiciário a partir da CF/88. Deu-se especial destaque à implantação do paradigma gerencial feito pela reforma Bresser- Pereira nos anos FHC. No Poder Judiciário houve um avanço importantíssimo com a implantação do CNJ em 2005, que trouxe para o dia-a-dia dos Tribunais instrumentos científicos e modernas técnicas que estão profissionalizando a gestão desses órgãos, buscando eficiência, eficácia e efetividade. A utilização de estatísticas e fixação de metas são exemplos meritórios de sua atuação. Ao final do estudo de caso, observou-se que o primeiro programa atende aos anseios da população e propõe-se a sua continuidade, enquanto que o segundo deveria ser repensado.
Resumo:
Este estudo teve o objetivo de examinar a contribuição do processo eletrônico na redução do tempo médio de tramitação do processo. Para alcançar este objetivo, realizou-se pesquisa descritiva documental, com dados de campo coletados, em junho de 2009, em catorze Juizados Especiais Federais e três Turmas Recursais da 2ª Região, totalizando 1444 processos (físicos e eletrônicos) que atingiram a baixa finda no referido mês. Os principais resultados indicam que, no período observado, o processo eletrônico foi mais célere do que o processo físico, alcançando, em média, 70% de redução do tempo de tramitação do processo. Sustentam também que essa redução é variável no tempo transcorrido entre fases distintas do processo. Nesse contexto, propõe-se a criação de indicador de Tempo Médio de Tramitação do Processo, que indique a ocorrência atualizada de cada fase selecionada, em comparação com o passado, pois ambos constituem referência para análise e estudo de situações e tomadas de decisão relativas à celeridade na prestação jurisdicional, sem perda da qualidade dos resultados já obtidos. Em síntese, os resultados sustentam a premissa de que o processo eletrônico é uma das ferramentas valiosas para combater a morosidade no Poder Judiciário e auxiliar no aumento do Índice de Confiança na Justiça no Brasil, fortalecendo o Poder Judiciário e ampliando o acesso à Justiça. Ao final, apresentam-se conclusões e sugestões que têm em vista acelerar e ampliar o acesso à justiça.
Resumo:
Estudo da teoria das opções reais que incorpora à avaliação de projetos de investimentos, as opções de crescimento e as flexibilidades gerenciais que surgem devido às incertezas existentes no ambiente no qual as empresas operam. Aborda os métodos tradicionais de avaliação de investimentos baseados no fluxo de caixa descontado (FCD), destaca as suas vantagens e limitações; a teoria das opções reais mostrando suas vantagens em relação aos métodos tradicionais; e um estudo de caso. Tem como objetivo principal apresentar que a teoria das opções reais é viável e complementar aos métodos tradicionais de avaliação de investimentos na indústria de mineração de ferro, com a abordagem da avaliação em tempo discreto. Este método permite especificar o problema de análise e resolvê-lo com o uso de programa de software de análise de decisão disponível no mercado de forma mais simples e mais intuitivo que os métodos tradicionais de avaliação de opções reais e permite maior flexibilidade na modelagem do problema de avaliação. A modelagem das opções reais do projeto baseia-se no uso de árvore de decisão binomial para modelar o processo estocástico. A avaliação é realizada em quatro passos de acordo com a metodologia proposta por Copeland e Antikarov (2001) e Brandão e Dyer (2005): modelagem do ativo básico, ou seja, cálculo do valor presente líquido sem flexibilidade; criação do modelo binomial utilizando o software computacional para modelar o ativo básico, computando as probabilidades neutras a risco; modelagem das opções reais no projeto; e resolução da árvore binomial, ou seja, análise das opções reais. Os resultados apresentados demonstram que é possível implementar a abordagem da avaliação de opções reais em projetos de investimentos na indústria de mineração de ferro.
Resumo:
Este trabalho apresenta um conjunto de ferramentas que exploram as capacidades recentes das placas gráficas de computadores pessoais para prover a visualização e a interação com volumes de dados. O objetivo é oferecer ao usuário ferramentas que permitam a remoção interativa de partes não relevantes do volume. Assim, o usuário é capaz de selecionar um volume de interesse, o que pode tanto facilitar a compreensão da sua estrutura quanto a sua relação com os volumes circundantes. A técnica de visualização direta de volumes através do mapeamento de texturas é explorada para desenvolver estas ferramentas. O controle programável dos cálculos realizados pelo hardware gráfico para gerar a aparência de cada pixel na tela é usado para resolver a visibilidade de cada ponto do volume em tempo real. As ferramentas propostas permitem a modificação da visibilidade de cada ponto dentro do hardware gráfico, estendendo o benefício da visualização acelerada por hardware. Três ferramentas de interação são propostas: uma ferramenta de recorte planar que permite a seleção de um volume de interesse convexo; uma ferramenta do tipo “borracha”, para eliminar partes não relevantes da imagem; e uma ferramenta do tipo “escavadeira”, para remover camadas do volume Estas ferramentas exploram partes distintas do fluxo de visualização por texturas, onde é possível tomar a decisão sobre a visibilidade de cada ponto do volume. Cada ferramenta vem para resolver uma deficiência da ferramenta anterior. Com o recorte planar, o usuário aproxima grosseiramente o volume de interesse; com a borracha, ele refina o volume selecionado que, finalmente, é terminado com a escavadeira. Para aplicar as ferramentas propostas ao volume visualizado, são usadas técnicas de interação conhecidas, comuns nos sistemas de visualização 2D. Isto permite minimizar os esforços do usuário no treinamento do uso das ferramentas. Finalmente, são ilustradas as aplicações potenciais das ferramentas propostas para o estudo da anatomia do fígado humano. Nestas aplicações foi possível identificar algumas necessidades do usuário na visualização interativa de conjuntos de dados médicos. A partir destas observações, são propostas também novas ferramentas de interação, baseadas em modificações nas ferramentas propostas.
Resumo:
Este trabalho tem como objetivo medir o tempo de duração dos processos judiciais envolvendo direitos sociais na seara educacional e verificar de que forma esse tempo afeta a fruição desses direitos. Visando atingir tais objetivos, foram identificados e analisados os processos judiciais, desde a sua entrada na 1.ª instância da justiça estadual até a data da sessão de julgamento do acórdão na 2.ª instância do Tribunal de Justiça de Minas Gerais. De forma subsidiária, o trabalho também identificou quem eram os litigantes, a influência da concessão das liminares no tempo de duração dos processos, a variação do tempo do processo com base na localização da comarca em que se inicia o processo e a existência de etapas mortas na tramitação dos processos judiciais. O pressuposto que guiou a pesquisa é o da possibilidade do perecimento de determinados direitos, como o direito ao oferecimento de vagas em creches e o direito ao acesso ao ensino superior público de forma gratuita, ante uma duração excessiva do tempo do processo judicial.
Resumo:
Estratégias para descoberta de recursos permitem a localização automática de dispositivos e serviços em rede, e seu estudo é motivado pelo elevado enriquecimento computacional dos ambientes com os quais interage-se. Essa situação se deve principalmente à popularização de dispositivos pessoais móveis e de infra-estruturas de comunicação baseadas em redes sem-fio. Associado à rede fixa, esse ambiente computacional proporciona um novo paradigma conhecido como computação pervasiva. No escopo de estudo da computação pervasiva, o Grupo de Processamento Paralelo e Distribuído da Universidade Federal do Rio Grande do Sul desenvolve o projeto ISAM. Este engloba frentes de pesquisa que tratam tanto da programação de aplicações pervasivas como também do suporte à execução dessas. Esse suporte é provido pelo middleware EXEHDA, o qual disponibiliza um conjunto de serviços que podem ser utilizados por essas aplicações ou por outros serviços do ambiente de execução. Essa dissertação aborda especificamente o Pervasive Discovery Service (PerDiS), o qual atua como um mecanismo para descoberta de recursos no ambiente pervasivo proporcionado pelo ISAM. A concepção do PerDiS baseou-se na identificação dos principais requisitos de uma solução para descoberta de recursos apropriada para utilização em um cenário de computação pervasiva Resumidamente, os requisitos identificados nessa pesquisa e considerados pelo PerDiS tratam de questões relacionadas aos seguintes aspectos: a) utilização de informações do contexto de execução, b) utilização de estratégias para manutenção automática da consistência, c) expressividade na descrição de recursos e critérios de pesquisa, d) possibilidade de interoperabilidade com outras estratégias de descoberta, e) suporte à descoberta de recursos em larga-escala, e f) utilização de preferências por usuário. A arquitetura PerDiS para descoberta de recursos utiliza em sua concepção outros serviços disponibilizados pelo ambiente de execução do ISAM para atingir seus objetivos, e ao mesmo tempo provê um serviço que também pode ser utilizado por esses. O modelo proposto é validado através da implementação de um protótipo, integrado à plataforma ISAM. Os resultados obtidos mostram que o PerDiS é apropriado para utilização em ambientes pervasivos, mesmo considerando os desafios impostos por esse paradigma.