993 resultados para quantidade


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho foi feito um estudo das propriedades reológicas, mecânicas e térmicas de blendas poliméricas contendo 1 e 10% em massa de polietileno de ultra alto peso molar (PEUAPM) e polietileno linear de média densidade (PELMD). As blendas foram obtidas por mistura em extrusora de rosca simples e em extrusora de rosca dupla, para fins de comparação. Na extrusão em rosca dupla foi acrescentado um terceiro componente - óleo mineral, cera ou polietileno de muito baixo peso Molar (PEMBPM) - a fim de promover uma melhor interação entre o PELMD e PEUAPM. As amostras obtidas por moldagem por injeção, rotomoldagem e moldagem por compressão foram submetidas a testes reológicos, térmicos e mecânicos. Foi analisada a influência do tipo de processamento e da composição das blendas sobre morfologia e as propriedades finais destas. A reometria rotacional indicou um gradual aumento da viscosidade das blendas com o aumento da quantidade de PEUAPM adicionado. Análises de microscopia eletrônica de varredura (MEV), microscopia ótica e calorimetria diferencial de varredura (DSC) indicaram uma separação de fases nas blendas, mesmo quando o terceiro componente foi adicionado. Entretanto, as blendas que contém agente de acoplamento apresentaram diferenças na morfologia final, como observado através das análises de microscopia ótica durante a cristalização do sistema polimérico e nas análises de MEV nas amostras moldadas por injeção Para todas as blendas moldadas por injeção, a resistência ao impacto foi menor do que a encontrada para o PELMD puro. Por outro lado, nas amostras rotomoldadas não houve diferença significativa nas propriedades das blendas quando comparadas ao PELMD puro. As amostras extrusadas em rosca dupla, contendo óleo mineral ou cera e, posteriormente, moldadas por compressão apresentaram resistência ao impacto similares aos valores encontrados para o PELMD puro, sem significativas mudanças na processabilidade. Considerando as demais análises de propriedades mecânicas, não foi observada influência do terceiro componente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O gerenciamento de redes exige dos administradores a disponibilidade de uma grande quantidade de informações sobre os seus equipamentos, as tecnologias envolvidas e os problemas associados a elas. Nesse cenário, administradores de redes devem, cada vez mais, aprofundar o seu conhecimento através de constante treinamento, até que estejam aptos a administrar uma rede de maneira mais eficiente e confiável. Alguns estudos têm sido feitos buscando integrar tecnologias de Inteligência Artificial na área de gerenciamento de redes. Abordagens utilizando sistemas multiagentes, agentes de interface e sistemas especialistas já foram utilizadas com o objetivo de facilitar a tarefa de gerenciamento de rede aos olhos do usuário. Os chatterbots representam um grande potencial para a tarefa de treinamento e gerenciamento de redes já que utilizam linguagem natural e são capazes de ser facilmente integrados em ambientes mais complexos. O principal objetivo deste trabalho é investigar o uso de chatterbots como uma ferramenta de gerenciamento utilizada por administradores menos treinados. O trabalho envolveu a adaptação do chatterbot ALICE para permitir o treinamento e a gerência de redes através da inclusão de módulos que permitem a monitoração de equipamentos de uma rede (através do protocolo SNMP) e módulos que permitam consultar e armazenar histórico de informações da mesma. Desta forma, a grande contribuição da arquitetura proposta é a de prover uma comunicação mais efetiva entre o administrador menos experiente e a rede, através do chatterbot assistente, que recebe consultas em linguagem natural, interpreta os dados coletados e expõe os conceitos envolvidos no processo de gerenciamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A proliferação institucional dos Conselhos de políticas públicas no Brasil é uma realidade inegável. São mais de 28 mil Conselhos Municipais implantados no país, reunindo um número de conselheiros da sociedade civil que supera em mais de três vezes a quantidade de vereadores democraticamente eleitos. Muito embora os dados numéricos reforcem as expectativas depositadas nesse mecanismo de participação institucionalizada, os estudos sobre o tema têm revelado um reduzido poder de influência destes órgãos sobre o processo de definição de políticas públicas. O objetivo deste trabalho é dar luz a um enfoque pouco utilizado nas pesquisas acadêmicas para analisar os problemas vivenciados pelos Conselhos. Trata-se de investigar como os atores governamentais com assento no Conselho observam as experiências conselhistas e como explicam o desempenho destes espaços públicos. Com base no estudo de caso do Conselho Municipal de Saúde de São Paulo (CMS/SP) no período de 2001 a 2004, este trabalho pretende construir um diagnóstico alternativo sobre o desempenho do Conselho, alertando para os constrangimentos vividos pelo governo para a negociação das políticas; para as dificuldades da Secretaria Municipal de Saúde de São Paulo (SMS/SP) em realizar processos participativos; para a avaliação negativa dos atores governamentais em relação à legitimidade, representatividade e qualificação dos conselheiros societais; e para a baixa capacidade propositiva do CMS/SP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dentro do contexto de modernização da administração pública brasileira em meados da década de 90, um novo formato de compras por meio de leilão reverso desenvolveu-se no estado de São Paulo. Novas tecologias, a internet, e recem implentadas ferramentas gerenciais possibilitaram a criação da Bolsa Eletrônica de Compras (BEC/SP). Os tradicionais rocessos licitatórios foram transformadores que competem simultaneamente, sem limitações geográficas pela venda ao menor preço. A luz da teoria dos leilões, o presente trabalho analisa os novos modelo e processos de compras recém implementados sob a forma de licitações eletrônicas, considerando como caso a BEC/SP. Através das análises, observa qual o impacto financeiro da Bolsa nas compras do Governo Estadual, medindo até que ponto esta nova ferramenta de compras pode reduzir os preços de materiais comprados tanto na administração pública como também privada. Além disto, outros pontos como o volume atualmente negociado na BEC/SP pelo Estado, os tipos de materiais que apresentam maiores reduções nos preços são também estudados. Para os itens de maior relevância nas compras paulistas, alguns controles são realizados na tentativa de isolar o efeito bolsa de outros efeitos na redução de preços como localização da compra ou quantidade comprada. O trabalho pretende levantar, por meio do estudo de caso do Estado de São Paulo, as principais questões na implementação de um sistema de compras semelhantes e ressaltar a importância de uma política de compras estruturada e eficiente na administração dos já escassos recursos públicos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo geral desta dissertação é estudar como a Diageo e a Unilever do Brasil apresentam ao mercado seus novos produtos, analisando de modo comparativo as variáveis envolvidas na fase de pesquisa, avaliação, desenvolvimento e lançamento do produto. Para isso foram realizadas entrevistas com gerentes seniores das duas empresas de modo a entender o contexto e processo que as empresas adotam para disponibilizar novos produtos para o consumidor. Os resultados apontam que as empresas têm processos similares para tratar o desenvolvimento de um novo produto, mas há uma grande diferença na quantidade de lançamentos realizados pelas empresas devido ao modo em que cada uma organiza as pessoas responsáveis pelo processo de lançamento de produtos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A área de promoção de vendas tem crescido significativamente em importância dentro do mix de marketing. Concomitantemente, mensurar o retorno sobre investimento na área de marketing tem se mostrado cada vez mais relevante. Paralelo a isso, a literatura tem concentrado os estudos em ações promocionais monetárias (descontos, cupons, rebates), existindo uma quantidade muito menor de trabalhos com foco em ações promocionais não monetárias. O objetivo dessa dissertação é desenvolver um modelo de retorno sobre investimento em ações promocionais não monetárias de fácil aplicação. Para tal, fez-se um levantamento da literatura, em especial sobre promoção de vendas e retorno sobre investimento em marketing. A partir daí foi desenvolvido um modelo conceitual de retorno sobre investimento em promoções não monetárias que permite calcular o retorno financeiro de ações, bem como, verificar impactos na marca. Além do conceito do modelo é detalhada a forma de operacionalização do mesmo, bem como são feitas duas aplicações práticas do modelo para torná-lo mais compreensível e testar eventuais falhas e limitações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma das principais características do hipocampo após a isquemia é a vulnerabilidade diferencial das células da região CA1 e DG à morte celular. Os neurônios granulares do DG são resistentes, enquanto que os neurônios piramidais da região CA1 são mais sensíveis. Nosso objetivo nesse estudo foi investigar o possível envolvimento da via de sinalização celular PI3K, uma via que possui efeito proliferativo e antiapoptótico, e das proteínas de choque térmico (HSPs) no fenômeno da vulnerabilidade seletiva. Para isso foram usadas culturas organotípicas de hipocampo de ratos Wistar de 6-8 dias. As culturas foram tratadas com o inibidor da PI3K, LY294002 (LY), nas doses 10μM e 50μM. A morte celular foi quantificada pela medida da incorporação de iodeto de propídeo e da atividade das caspases 3 e 7. Alterações na fosforilação e no imunoconteúdo das proteínas foram obtidas com o uso de anticorpos específicos. Os resultados mostraram que a região do DG parece responder de forma tempo dependente e precocemente à presença da droga, sugerindo uma importância da via nessa região. Para investigar se a proteína AKT, uma cinase ativada por PI3K, estava envolvida na vulnerabilidade seletiva das células às condições de privação de oxigênio e glicose (POG), medimos a fosforilação e o imunoconteúdo dessa cinase após 60 minutos de POG seguida dos tempos de recuperação de 30 minutos, 6 horas e 24 horas. Nenhuma alteração foi observada nesses parâmetros, sugerindo que , nesse caso, a fosforilação da AKT não está envolvida na vulnerabilidade seletiva. Quando o imunoconteúdo da HSP27 e da HSP70 foi investigado após as condições de POG em ambas as áreas do hipocampo, não foi observada nenhuma alteração na HSP27 nos tempos de recuperação escolhidos. Por outro lado, observou-se aumento no imunoconteúdo da HSP70 em ambas as regiões 24 horas após a exposição às condições de POG, sendo este maior no CA1. Quando as quantidades das HSPs nas duas regiões em condições basais foram comparadas, observou-se que ambas estão em maior quantidade na região do DG. Esta diferença poderia estar relacionada com a resistência à morte celular observada no DG, uma vez que, possuindo maior quantidade HSPs, estas poderiam atuar como protetoras contra a morte. Esses resultados sugerem que a via de sinalização da PI3K pode estar envolvida na vulnerabilidade seletiva observada no hipocampo em resposta à condições de POG, e esta não envolve alterações na fosforilação da AKT. Por outro lado, HSP27 e HSP70 podem estar envolvidas no fenômeno da vulnerabilidade seletiva, protegendo o DG das lesões.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como objetivo analisar em que aspectos a desigualdade histórica de formação dos municípios brasileiros foi determinante para as suas condições atuais de desigualdade de terra e renda e sobre qualidade das instituições. Em particular, emprega-se área, latitude, longitude e a data de fundação das Capitanias Hereditárias como determinantes históricos para as instituições atuais dos municípios brasileiros. Considerando controles, tais como área proporcional da capitania, ano de fundação do município, distância de Portugal, tipo de solo, quantidade de chuva, altitude, temperatura média, e variáveis sócio-econômicas municipais, os resultados sugerem que a herança colonial deixada pelas Capitanias Hereditárias foi maior concentração de terras. O resultado é robusto à inclusão de variáveis que capturam o ciclo da cana-de-açúcar, do ouro e efeitos estaduais. Além disso, estima-se efeito ambíguo sobre instituições para os municípios do país.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O entendimento da manufatura celular passa pelo estudo das rotas de fabricação e pelos métodos de agrupamento de máquinas e de peças. Neste contexto, o objetivo principal deste trabalho é a implemetação de uma ferramenta de auxílio ao projeto de células de manufatura, abordando uma metodologia fundamentada na Tecnologia de Grupo para agrupamento de máquinas em células de manufatura com as respectivas famílias de peças. A base de dados com as informações das peças, das máquinas e das rotas que compõe o fluxo de produção é implementada em um banco de dados relacional. A matriz incidência peça-máquina é montada a partir das rotas armazenadas no banco de dados através de um aplicativo desenvolvido em Visual Basic. Os agrupamentos em famílias de peças e células de manufatura são gerados por três diferentes algoritmos: o Rank Order Clustering (ROC), o Close Neighbor Algorithm (CNA) e um algoritmo heurístico (HEU). São aplicadas restrições referentes a limite de carregamento, tamanho de célula e resolução de situações de “gargalo”. Processados os algoritmos de agrupamento, são analisados os resultados em função da densidade e da eficiência do agrupamento. O sistema apresenta o resultado final em planilhas no formato MS Excel. A primeira planilha, chamada resultados, exibe os valores das restrições de projeto das células (número de máquinas por célula, tempo limite de carregamento e tempo limite para duplicação da máquina), o número de peças (colunas) e de máquinas (linhas) da matriz incidência, os valores de eficiência do agrupamento de peças, do agrupamento de máquinas e do aproveitamento dos recursos, bem como o número de células independentes e a quantidade de máquinas duplicadas, obtidos por cada algoritmo no sistema, destacando os melhores resultados. A segunda planilha mostra a matriz incidência peça-máquina. As demais planilhas apresentam, respectivamente, a matriz diagonalizada com o algoritmo original (ROC e CNA), a matriz diagonalizada levando-se em consideração as restrições de projeto das células (análise ROC, análise CNA e HEU) e por fim, uma planilha relatório. A planilha relatório tabula os mesmos valores citados na primeira planilha e lista as peças associadas a cada família, as máquinas associadas a cada célula, as peças rejeitadas, por não se enquadrarem nos agrupamentos, e que devem ser tratadas fora do ambiente celular e as máquinas duplicadas. A comparação dos resultados é efetuada considerando as características adicionadas aos algoritmos originais. Dos três estudados, as restrições de projeto são tratadas na implementação do HEU. Os demais, ROC e CNA, têm incorporado um pós processamento. Em análises comparativas observa-se a superioridade dos algoritmos ROC e HEU em relação ao CNA e os resultados do ROC são melhores ou iguais aos demais, dificilmente inferiores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nas duas últimas décadas, o papel dos setores de private equity e venture capital no Brasil aumentou significativamente, com a expansão do volume de recursos sob gestão e do número de transações. Ao mesmo tempo, a sofisticação do marco legal e das formas de contratação aumentou para que fosse possível lidar com os problemas de agência, que são particularmente intensos devido (i) à baixa liquidez dos ativos em que investe, (ii) à duração do compromisso entre as partes e (iii) à potencialmente elevada assimetria de informação entre elas. Este trabalho explora a presença de restrições às atividades dos gestores de recursos de private equity e venture capital, e mostra que há uma forte correlação entre a quantidade de restrições e a intensidade dos problemas de agência, mas que as evidências quanto à relação entre as restrições e as condições de demanda não são conclusivas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação teve como objetivo o estudo e desenvolvimento da técnica de síntese por combustão em solução para obtenção de nanocristais de alumina, e a caracterização desse material por diferentes técnicas. O estudo da obtenção incluiu o modelamento termodinâmico das reações investigadas e a influência da razão combustíveloxidante no tamanho de partícula. A síntese da alumina por combustão foi realizada a partir do par precursor químico glicina-nitrato de alumínio em água, para diferentes razões combustível-oxidante, temperaturas de chama e número total de moles gasosos, relacionando esses parâmetros com tamanho de cristalito no pó, deformação de rede, área superficial e porosidade total. As reações químicas de combustão em solução resultaram na formação in situ de fases metaestáveis de Al2O3 para o pó como-sintetizado. A fase Al2O3-α, cuja formação não ocorreu nem na presença de um extra-oxidante, somente foi obtida após um tratamento térmico a 1100°C do pó como-sintetizado. O modelamento termodinâmico da reação de combustão em solução mostrou que quando a razão combustível-oxidante aumenta, obtém-se uma elevação da temperatura de chama adiabática e da quantidade de gás produzida, definindo características do particulado como morfologia, tamanho de cristalito, área superficial e nível de aglomeração. A caracterização do pó utilizou técnicas como análise termodiferencial (ATD) e termogravimétrica (ATG), granulometria por dispersão de laser (GDL), BET para análise de área superficial e porosidade total, difração de raios X (DRX), microscopia eletrônica de varredura (MEV), e microscopia eletrônica de transmissão (MET). Os pós de alumina alfa obtidos apresentaram-se como constituídos de cristalitos nanométricos, dispostos na forma de agregados de tamanho micrométrico. O tamanho de cristalito médio, calculado pelo método de Williamson-Hall, a partir de dados de análises por DRX, foi de 97 nm, e deformação média calculada de 5x10-3 % A análise granulométrica dos pós como-sintetizados verificou um tamanho de aglomerado de 40 µm, com distribuição monomodal. As análises por MEV e MET confirmaram a aglomeração das partículas do pó como-sintetizado, a partir de partículas com morfologia irregular.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esse estudo estende a metodologia de Fama e French (1988) para testar a hipótese derivada da Teoria dos Estoques de que o convenience yield dos estoques diminui a uma taxa decrescente com o aumento de estoque. Como descrito por Samuelson (1965), a Teoria implica que as variações nos preços à vista (spot) e dos futuros (ou dos contratos a termo) serão similares quando os estoques estão altos, mas os preços futuros variarão menos que os preços à vista quando os estoques estão baixos. Isso ocorre porque os choques de oferta e demanda podem ser absorvidos por ajustes no estoque quando este está alto, afetando de maneira similar os preços à vista e futuros. Por outro lado, quando os estoques estão baixos, toda a absorção dos choques de demanda ou oferta recai sobre o preço à vista, uma vez que os agentes econômicos têm pouca condição de reagir à quantidade demandada ou ofertada no curto prazo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação estuda a aplicação da estratégia Pairs Trading no mercado acionário brasileiro. Envolve basicamente a identificação de pares de ações que tenham movimentos de preço semelhantes e posteriormente a operação do diferencial entre seus preços. É possível observar no mercado a existência de um valor de equilíbrio de longo prazo para alguns pares de ações e quando o diferencial divergir de certa quantidade pré-definida opera-se o diferencial no intuito de que o mesmo retorne ao seu valor de equilíbrio de longo prazo, ou seja, espera-se que ocorra uma reversão à média do diferencial. A metodologia para a identificação desses pares de ações que descrevem movimentos semelhantes vem do conceito de cointegração. Essa metodologia é aplicada sobre as ações do índice Bovespa de 04-Jan-1993 a 30-Jun-2005. Inicialmente é feita uma pré-seleção dos pares de ações via correlação, ou medida de distância. Para a seleção final é feito o teste de cointegração, onde é utilizado o método de Dickey-Fuller aumentado (Augmented Dickey-Fuller test – ADF) para verificar a existência de raiz unitária da série de resíduo da combinação linear do logaritmo dos preços. Após a seleção, os pares são simulados historicamente (backtesting) para se analisar a performance dos retornos dos pares de ações, incluindo também os custos operacionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação avalia os efeitos do Exame Nacional do Ensino Médio (ENEM) sobre o ensino médio brasileiro. Esta avaliação baseia-se na teoria de que exames curriculares com a qualidade de gerar conseqüências diretas sobre os alunos, como no caso do ENEM, são capazes de influenciar positivamente o aprendizado dos alunos por dois canais: por aumento de seu esforço e pela pressão que exercem sobre professores e diretores. O presente trabalho avalia especificamente o segundo canal, sobre o qual o ENEM deve atuar por meio da divulgação ao público das notas médias por escola em todo o país. Neste sentido, estima-se o efeito da divulgação das notas do ENEM sobre os seguintes resultados educacionais: proficiência em Matemática e Língua Portuguesa no Saeb, alocação de insumos escolares e comportamento dos professores. Para tanto, dois métodos são propostos: i) diferenças em diferenças, utilizando dados dos Saeb de 2005 – um ano antes do início da divulgação – e 2007 – um ano após a primeira publicação – e ii) regressão com descontinuidade, explorando o fato de haver uma regra estrita para entrada da escola na divulgação – ter ao menos 10 concluintes do ensino médio participando do ENEM. Os resultados mostram que o fato uma escola ter seu resultado médio no ENEM divulgado não parece influenciar o desempenho de seus alunos nem a quantidade de seus insumos escolares, por nenhum dos métodos propostos. O método de diferenças em diferenças aponta ainda que os professores de escolas submetidas ao tratamento dessa divulgação parecem ter maior enfoque em atividades voltadas a resolução de exercícios e fixação de regras gramaticais, reação que é interpretada por parte da literatura como adversa. Estes últimos resultados, no entanto, podem estar refletindo apenas tendências temporais preexistentes e não um efeito de tratamento legítimo. Conclui-se então que o ENEM não deve estar servindo como indutor de melhorias dos resultados educacionais via pressão dos alunos do ensino médio. Porém, é possível levantar a hipótese de que este tipo de efeito ainda pode ser captado em prazos mais longos ou para grupos de escolas diferentes das usadas na análise.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivo: Avaliar o consumo de farináceos e de alimentos ricos em ácido fólico em uma amostra de mulheres em idade fértil da cidade de Porto Alegre-Brasil. Métodos: Foi realizado um estudo de prevalência com base populacional, com uma amostra de conveniência. Foi aplicado um questionário de freqüência quantitativa contendo questões relativas à classificação sócio-econômica e ao consumo de farináceos e alimentos-fonte em folato. Foram incluídas no estudo 400 mulheres entre 15 e 45 anos. Todas as participantes assinaram o Termo de Consentimento Livre e Esclarecido. Resultados: O consumo diário de folatos nesta população foi em média de 220,1 g. A quantidade consumida de farináceos foi de 176 g por mulher. A ingestão conjunta de alimentos-fonte de folato e de farináceos fortificados (farinha de trigo e/ou milho) foi de 404,7 g por pessoa. Conclusões: Como o consumo de ácido fólico preconizado pela RDA é de 400g/dia, incluindo tanto o folato proveniente de alimentos-fonte quanto os suplementados, a adição do ácido fólico na farinha de trigo está permitindo que o limite inferior recomendado seja atingido, não havendo, no entanto, uma garantia que esse valor se mantenha se forem computadas as perdas decorrentes do cozimento e da ação da luz UV, não consideradas neste trabalho.