964 resultados para mínima quantidade de lubrificação
Resumo:
O sistema bancário consiste em um setor da economia muito regulado, e uma das medidas impostas pelas autoridades supervisoras como forma de controle é exigência mínima de capital. Uma das formas encontradas para oferecer maior proteção aos clientes e ao mercado financeiro como um todo é a imposição aos bancos em manterem níveis mínimos de capital vinculados aos riscos a que estão expostos, medida que serve como recurso para desestimular a exposição a riscos não usuais. O capital bancário, portanto, constitui-se em instrumento de proteção contra o risco de quebra de uma instituição, e, desde a adesão ao Acordo Internacional da Basiléia, com vigência a partir de 1995, os bancos brasileiros têm de manter patrimônio líquido compatível com o grau de risco da estrutura de seus ativos. O presente trabalho explora a existência e o grau de relação entre exigência mínima de capital ponderado pela exposição de risco dos ativos e a rentabilidade dos bancos brasileiros, a fim de contribuir para uma análise da situação atual das instituições em relação às normas vigentes sobre requerimento de capital. Trata-se de pesquisa empírica, a qual procura levantar indicações exploratórias, evidenciadas por graus de correlações, mensurados através de estimação com dados em painel. A literatura internacional que versa sobre os impactos da existência de regulação de capital nos bancos demonstra-se divergente e, em alguns casos, não–conclusiva. Os resultados encontrados neste trabalho, com base em amostra composta por bancos brasileiros, não evidenciam relações significativas entre indicador de rentabilidade e indicador de capital ponderado pelos riscos, conhecido no Brasil como Índice de Basiléia. Algumas considerações são sugeridas para justificarem os resultados alcançados, tais como a preferência das instituições por aplicações em ativos de menor risco, como títulos públicos, a arbitragem de capital, proporcionada, principalmente, pelo grau de risco imposto às operações ativas, e a facilidade de enquadrarem-se aos limites mínimos de capital adotados no Brasil, evidenciada pelas altas margens de folga observadas.
Resumo:
O projeto procura levantar aspectos positivos e negativos de um programa de renda mínima. Examina também experiências de programas de dispêndio para os pobres em países desenvolvidos e comenta sobre aspectos que poderiam ser melhor avaliados por pesquisadores brasileiros.
Resumo:
Muito tem se falado sobre a importância estratégica dos indicadores de performance. A presente pesquisa pretendeu avaliar esses indicadores em relação a três aspectos: quantidade recebida, conteúdo dos indicadores e formato de apresentação. Escolheu-se como universo de análise as instituições financeiras, por terem sido as que mais investiram em tecnologia em 2002, no Brasil. Como principal resultado, concluiu-se que a falta de interação entre as dimensões tecnológica e humana ainda é um obstáculo para o uso eficaz dos indicadores.
Resumo:
A proposta desta dissertação de mestrado é retratar a trajetória das políticas de renda mínima e bolsa escola no sistema de proteção social brasileiro. Além de resgatar os debates teórico e histórico que envolvem o tema, temos como maior preocupação mostrar como algumas questões federativas têm afetado decisivamente a implementação destes programas, desde as primeiras iniciativas subnacionais até a adoção de programas nacionais com clara interface intergovernamental. Duas grandes questões conduzem a discussão. A primeira diz respeito à eficácia da renda mínima como política de combate à pobreza e à desigualdade. A outra se refere ao estudo do impacto do arranjo institucional sobre estes programas. Para resgatar a dívida social brasileira não basta apenas identificarmos a melhor política (mais eficiente, eficaz e efetiva); é igualmente fundamental criar condições institucionais para o seu êxito. O argumento central do trabalho é que o modelo federativo e o processo de descentralização influenciaram diretamente o desenvolvimento dos programas de renda mínima no Brasil, sendo determinantes para o seu bom desempenho. Este trabalho visa a enriquecer a atual discussão sobre o melhor caminho para a reestruturação do nosso sistema de proteção social, tendo em vista que a redução da pobreza, além de fundamental para a democracia, é estratégica para a obtenção de desenvolvimento real e sustentado.
Resumo:
Esta dissertação reflete sobre diferentes programas de renda mínima existentes no Brasil - alguns já implementados e outros em fase de implantação - e sobre os modelos teóricos de James Meade. Inicialmente faz-se uma abordagem geral a respeito de cada um dos programas selecionados e, sobretudo, sobre como influenciam a oferta de mão-de-obra. Nessa abordagem, visualiza-se a existência de um grande mercado de trabalho informal no Brasil, o que leva à evidência da necessidade de criação de mecanismos de controle que possibilitem a implantação desses programas. Em seguida, são feitos levantamentos que permitem estimar os recursos financeiros necessários para cada uma das propostas de programas de renda mínima. Finalmente, são feitas considerações acerca das possibilidades de implantação de cada um dos programas discutidos e apresentam-se aqueles que são mais viáveis no Brasil de hoje.
Resumo:
Resumo não disponível.
Resumo:
O objetivo geral desta tese é estimar a elasticidade-preço da demanda de forma conjunta, decomposta em elasticidade-preço da escolha da marca e da quantidade comprada, e discutir as implicações desta decomposição para uma categoria específica de produto. Para isto foram usados dados escaneados de uma amostra de domicílios no contexto varejista brasileiro. Oito hipóteses foram testadas por meio de dois modelos. O primeiro refere-se à decisão de escolha da marca, em que foi empregado o modelo logit condicional baseado na maximização da utilidade do domicílio. O segundo envolveu equações de demanda, obtidas pelo modelo clássico de regressão linear. Ambos foram especificados de forma que se pudesse testar a dependência das duas decisões de compra. No que diz respeito à validação, o modelo de escolha da marca demonstrou uma satisfatória capacidade de previsão, comparativamente aos modelos analisados na literatura. Implicações gerenciais incluem específicas decisões e ações de preço para as marcas, já que a natureza da decomposição das elasticidades-preço varia entre marcas.
Resumo:
É uma análise da disseminação de experiências inovadoras em gestão pública, considerando o Programa de Garantia de Renda Mínima, no Brasil, de 1991 a 1997. Aborda dois modelos que permitem analisar a disseminação de inovações: o modelo difusionista (Rogers) e o modelo de translação (Latour). Adota o modelo de translação, que explica a disseminação como um processo de construção coletiva, resultante do conflito entre diferentes interesses.
Resumo:
Nesta dissertação, foi estudado o processo de remoção de graxa lubrificante, que estava untada em mangas das juntas homocinéticas de poliéteréster (Hytrel e Arnitel) com solventes. A proposta seria remover esta graxa com solventes e reutilizar as mangas novamente nas juntas homocinéticas, para diminuir o impacto ambiental. Para a limpeza das mangas, os solventes deveriam atender às exigências de máxima capacidade de remoção da graxa, mínima agressão às mangas e compatibilidade com as normas ambientais vigentes. Inicialmente, para a caracterização dos polímeros foram utilizadas as técnicas de análise térmica (TGA, DSC e DMA), e espectroscopia no infravermelho (IR); para os solventes foi utilizada a cromatografia gasosa acoplada à espectrometria de massa (CG/MSD), e para as graxas, o IR. A partir dos ensaios de inchamento dos solventes nos polímeros foram selecionados os três solventes (Solbrax-Eco 145/210, Siderclean 53 e Renotest LM) nos quais as graxas apresentavam maior solubilidade. Numa segunda etapa, estudaram-se as condições nas quais os solventes alterariam as propriedades dos polímeros através dos ensaios térmicos (TGA, DSC e DMA) e mecânicos (ensaio de tração e dureza). A partir do DSC obteve-se a Tm, Tc e o percentual de cristalinidade dos polímeros puros e dos polímeros imersos nos três solventes. Através do DMA, obteve-se o módulo de armazenamento (E’), módulo de perda (E”) e a tangente de perda (tan d) dos polímeros puros e dos polímeros imersos nos solventes (2, 5 e 9 dias). Baseado nos ensaios de tração dos polímeros puros e imersos nos solventes, estudou-se a tensão e o alongamento na ruptura, o módulo de elasticidade, e a força máxima até a ruptura. Concluiu-se, a partir dos ensaios térmicos, que os solventes atuam como plastificantes nos polímeros, alterando fortemente o seu comportamento térmico, dinâmico-mecânica e mecânico. À medida que o tempo de imersão dos polímeros nos solventes aumenta, uma maior quantidade de solvente é incorporada nos polímeros e a região da temperatura de transição vítrea e a tan d das amostras deslocam-se progressivamente para temperaturas mais baixas. Foi igualmente observada uma diminuição do módulo de elasticidade dos polímeros após a imersão nos solventes.
Resumo:
A presente dissertação tem por objetivo compreender a atividade legislativa e a articulação entre os Poderes Legislativo, Judiciário e Executivo no momento de cumprimento da pena pelo condenado. Parte-se da hipótese de que no processo de criação de leis sobre gestão da sanção no Brasil é recorrente a seleção de penas prisionais e que a atividade de determinação da quantidade e da qualidade da pena no caso concreto é objeto de disputa entre legislador, juiz e administrador penitenciário. Para investigar esta hipótese, a pesquisa comporta um levantamento empírico de proposições legislativas apresentadas no Congresso Nacional entre 1984 e 2011 relacionadas ao cumprimento da sanção criminal. O segundo capítulo da dissertação contém uma análise quantitativa destas proposições, por meio da sistematização dos dados gerais (tipo de proposição, tramitação, estado de origem e autor) e identifica, quando possível, as medidas tendentes a ampliar ou reduzir a exclusão social por meio do uso mais ou menos frequente da pena de prisão. O terceiro capítulo introduz o conceito de gestão da sanção, revisa o histórico legislativo de criação de um diploma legal voltado ao cumprimento da pena até a criação da LEP (1984) e empreende um estudo qualitativo sobre a divisão de tarefas sobre cumprimento da pena a partir do material empírico. O quarto capítulo apresenta a ideia de individualização da pena, conceito abordado da perspectiva de uma atividade judicial que interage de forma dinâmica e constante com as atividades legislativas e administrativas, especialmente durante o cumprimento da pena de prisão. A partir deste conceito são retomadas proposições legislativas que, em alguma medida, abordam o arranjo ou o rearranjo da divisão de tarefas entre os três poderes. Ao final, conclui-se que o processo de elaboração de normas penais no Brasil valoriza o uso da pena de privativa de liberdade, por meio da ampliação das frações mínimas prisionais ou da vedação de direitos subjetivos, situação na qual o juiz tem pouco espaço para atuar no caso concreto.
Resumo:
Com a disseminação do uso de Ambientes de Aprendizagem na Web, muitos autores de conteúdo instrucional dedicam seu tempo e se esforçam para desenvolver material de qualidade. Para facilitar o reuso desses materiais, os mesmos estão sendo desenvolvidos como objetos de aprendizagem e são armazenados em repositórios na Web, de onde podem ser pesquisados e recuperados para reuso. Essa pesquisa e recuperação são baseadas nas características dos objetos, ou seja, em seus metadados. Dessa forma, é necessário que os Objetos de Aprendizagem possuam valores de metadados consistentes para que a pesquisa e recuperação sejam eficientes. O desenvolvimento de material instrucional de boa qualidade consome grande quantidade de recursos. A descrição completa destes materiais, ou seja, dos objetos de aprendizagem, não é uma atividade estimulante para os autores que informam apenas um mínimo de metadados. Esta falta de metadados torna muito difícil a recuperação e o reuso dos OA. O objetivo desse trabalho é definir técnicas que recuperem a maior quantidade possível de metadados a partir dos Objetos e Aprendizagem, com a mínima intervenção do usuário, resultando em uma indexação e recuperação eficientes dos Objetos de Aprendizagem Essas técnicas são definidas com base na estrutura e funcionamento do AdaptWeb, que é um ambiente de aprendizagem que disponibiliza material instrucional de forma estruturada e organizada. Assim, é possível fazer uso das informações disponíveis nesse ambiente para recuperar os metadados automaticamente. As técnicas transformam o conteúdo do AdaptWeb em objetos de aprendizagem, sendo capazes de recuperar uma quantidade considerável de metadados. Assim, têm-se Objetos de Aprendizagem devidamente catalogados e armazenados em um repositório, prontos para serem reusados.
Resumo:
The objective is to analyze the relationship between risk and number of stocks of a portfolio for an individual investor when stocks are chosen by "naive strategy". For this, we carried out an experiment in which individuals select actions to reproduce this relationship. 126 participants were informed that the risk of first choice would be an asset average of all standard deviations of the portfolios consist of a single asset, and the same procedure should be used for portfolios composed of two, three and so on, up to 30 actions . They selected the assets they want in their portfolios without the support of a financial analysis. For comparison we also tested a hypothetical simulation of 126 investors who selected shares the same universe, through a random number generator. Thus, each real participant is compensated for random hypothetical investor facing the same opportunity. Patterns were observed in the portfolios of individual participants, characterizing the curves for the components of the samples. Because these groupings are somewhat arbitrary, it was used a more objective measure of behavior: a simple linear regression for each participant, in order to predict the variance of the portfolio depending on the number of assets. In addition, we conducted a pooled regression on all observations by analyzing cross-section. The result of pattern occurs on average but not for most individuals, many of which effectively "de-diversify" when adding seemingly random bonds. Furthermore, the results are slightly worse using a random number generator. This finding challenges the belief that only a small number of titles is necessary for diversification and shows that there is only applicable to a large sample. The implications are important since many individual investors holding few stocks in their portfolios
Resumo:
Petroleum evaluation is analyze it using different methodologies, following international standards to know their chemical and physicochemical properties, contaminant levels, composition and especially their ability to generate derivatives. Many of these analyzes consuming a lot of time, large amount of samples , supplies and need an organized transportation logistics, schedule and professionals involved. Looking for alternatives that optimize the evaluation and enable the use of new technologies, seven samples of different centrifuged Brazilian oils previously characterized by Petrobras were analyzed by thermogravimetry in 25-900° C range using heating rates of 05, 10 and 20ºC per minute. With experimental data obtained, characterizations correlations were performed and provided: generation of true boiling point curves (TBP) simulated; comparing fractions generated with appropriate cut standard in temperature ranges; an approach to obtain Watson characterization factor; and compare micro carbon residue formed. The results showed a good chance of reproducing simulated TBP curve from thermogravimetry taking into account the composition, density and other oil properties. Proposed correlations for experimental characterization factor and carbon residue followed Petrobras characterizations, showing that thermogravimetry can be used as a tool on oil evaluation, because your quick analysis, accuracy, and requires a minimum number of samples and consumables