998 resultados para Análise de componente principal
Resumo:
O objetivo do trabalho é realizar uma análise da estratégia long-short feita pelos fundos de investimentos, no mercado acionário, e testar a neutralidade dos fundos long-short brasileiros ao principal índice de mercado, o Ibovespa, utilizando os testes de neutralidade de Patton (2006) como referência. As explicações da estratégia long-short se divide em duas partes: a estratégia de pairs trading pela arbitragem estatística, e a estratégia de pairs trading pela arbitragem de risco. O resultado encontrado mostra que quase a totalidade dos fundos analisados (85%) falha no teste de neutralidade em relação ao mercado acionário, mais especificamente ao Ibovespa.
Resumo:
A Brazilian Traction, Light and Power Company ("Light"), formada por empreendedores canadenses em 1899, operou por 80 anos praticamente toda a infraestrutura (bondes, luz, telefones, gás) do eixo Rio-São Paulo. A empresa passou por vários ciclos políticos, desde sua fundação até sua estatização em 1979. Durante este período de 80 anos, a infra-estrutura nacional, inicialmente privada, foi gradativamente passando para as mãos do Estado. O setor voltaria a ser privado a partir dos anos 90, configurando o ciclo privado-público-privado, similar ao ocorrido nos países mais desenvolvidos. A Light, símbolo maior do capital estrangeiro até os anos 50, foi inicialmente bem recebida no país, posto que seu desenvolvimento era simbiótico, causa e conseqüência, ao desenvolvimento industrial. Dos anos 20 em diante, crescem os debates econômicos ou ideológicos quanto ao papel do capital privado estrangeiro no desenvolvimento nacional, vis-a-vis a opção do setor público como ator principal. Sempre permaneceu sob névoa quais teriam sido os lucros da Light no Brasil, e se esses seriam excessivos, acima do razoável. Outra questão recorrente se refere até que ponto os congelamentos de tarifas teriam contribuido para a crise de oferta de infra-estrutura. Através de um trabalho de pesquisa em fontes primárias, esta dissertação procura reconstituir a história da Light, sob um foco de Taxa de Retorno sob o capital investido. Foi reconstruída a história financeira da Light no Brasil, a partir da qual calculou-se, para vários períodos e para os seus 80 anos de vida, os retornos obtidos pelos acionistas da empresa. A partir dos resultados obtidos, e utilizando-se de benchmarks comparativos, foi possível mostrar que: i) ao contrário da crença vigente à época, o retorno obtido pelo maior investidor estrangeiro no setor de infra-estrutura do Brasil do Séc. XX, se mostrou bem abaixo do mínimo aceitável, e ii) o represamento de tarifas, por várias décadas, foi de fato determinante para o subdesenvolvimento do setor de infra-estrutura no Brasil.
Resumo:
O Brasil conta hoje com uma legislação que o coloca seguramente entre os melhores países, senão o melhor, para se realizar projetos culturais. Ao menos na teoria. Essa dissertação tem como objetivo trilhar o caminho das leis de incentivo, desde a sua criação, com a Lei Sarney até a Lei Rouanet, analisando inclusive as leis estaduais e municipais, que também surgiram como respostas a descontinuidades no processo. O mercado cultural brasileiro é caracterizado por externalidades que dificultam sua viabilidade, fazendo necessária a intervenção governamental. A política cultural brasileira tem como principal instrumento as leis de incentivo à cultura, que utilizam a renúncia fiscal para atrair o capital privado. São formalizadas parcerias onde as empresas privadas patrocinam projetos de interesse do governo e, como contrapartida, recebem o direito de deduzir esse valor, integral ou parcialmente, de seus impostos. Contudo, esse modelo de contrato de parceria é mal formulado, e traz perdas para a sociedade. O risco é assumido integralmente pelo Estado, o que acarreta problemas sérios de Moral Hazard. Além disso, devido às diferentes características dos projetos, o modelo acaba também por gerar problemas de Seleção Adversa. Para uma melhor comparação e análise da política cultural brasileira, foram levantados casos internacionais - Estados Unidos, Inglaterra, Portugal e Espanha. Levando-se em conta as análises e críticas levantadas, serão sugeridas alternativas para o modelo de contrato adotado pelo governo para incentivo à cultura, e formas alternativas de financiamento ao setor cultural, de forma a assegurar um melhor retorno para a sociedade sem deixar de cumprir o papel de fomentar o setor e corrigir as externalidades presentes.
Resumo:
A reciclagem com espuma de asfalto realizada na Rodovia BR-290/RS no ano de 2001, entre os km 97 e km 112, pista sentido Porto Alegre, também chamada Pista Sul, foi objeto de estudo nesta dissertação. Este estudo apresenta todas as etapas da reciclagem, desde a elaboração do projeto, as suas considerações, tais como volume de tráfego, clima da região, características funcionais e estruturais do pavimento, execução da camada reciclada, mencionando método de execução e controles adotados e por fim e como foco principal a análise do comportamento da mistura reciclada, compilando dados à época da execução, seis meses e um ano após a execução. Foram aproveitados dois levantamentos deflectométricos um realizado com o FWD(Falling Weight Deflectometer) no mês de dezembro de 2001 e outro realizado no mês de junho de 2002 com a viga eletrônica, também chamada deflectógrafo digital. Através destes levantamentos estimavam-se por retroanálise das bacias de deflexão, utilizando o programa computacional LAYMOD4, os módulos de cada camada do pavimento. Os resultados da reciclagem são satisfatórios. Analisando a camada reciclada isoladamente, comprovam-se várias citações de pesquisadores sobre o tema, tais como: a melhoria das propriedades mecânicas da reciclagem após tempo de cura e a dependência da mistura ao estado de tensões para seu comportamento elástico. Uma avaliação de desempenho foi desenvolvida, com o auxílio do programa PAVESYS9, revelando que o pavimento apresentou boa performance, comprovando mais uma vez, a melhoria no comportamento da camada reciclada com passado tempo de cura, aumentando o módulo de resiliencia e contribuindo menos para o afundamento de trilha de roda.
Resumo:
O processo de urbanização das cidades e a complexidade de seus problemas e questões são apontados como os principais desafios na busca de um desenvolvimento mais sustentável, principalmente ao verificarmos o impacto causado pelos centros urbanos, devido à apropriação inadequada dos recursos naturais, e causando a degradação e contaminação do meio ambiente. A busca da sustentabilidade ambiental urbana, principal tema abordado neste trabalho, é considerada imprescindível para reverter os impactos ambientais associados à urbanização. Considerando este contexto, este trabalho tem como objetivo geral a avaliação da sustentabilidade ambiental urbana da cidade de Nova Hartz, a partir da identificação das principais questões relacionadas à sustentabilidade dos assentamentos humanos, propostas pelas Agendas 21 e Habitat, consideradas como referências para a abordagem dos principais temas urbanos e sua respectiva relação com questões ambientais. As condições de sustentabilidade urbana de Nova Hartz são evidenciadas a partir da aplicação da metodologia da pegada ecológica e indicadores de sustentabilidade ambiental, no contexto das questões urbanas, cujos resultados, verificados a partir de práticas locais, pretendem nortear o início das discussões em relação ao planejamento do desenvolvimento urbano sustentável da cidade de Nova Hartz.
Resumo:
Fundamentos: A literatura tem demonstrado que a detecção precoce e a remoção cirúrgica em fases iniciais reduz a mortalidade do melanoma e que, em conseqüência, a identificação do melanoma em fases curáveis deve ser encorajada. Objetivos: O interesse principal do estudo foi conhecer se os melanomas cutâneos, no meio, estão sendo diagnosticados em fases iniciais, através de método reprodutível e armazenável. Metodologia: Foi realizado um estudo transversal com os casos de melanomas cutâneos primários, analisados nos laboratórios de patologia de Porto Alegre, de 1° de janeiro de 1994 a 30 de junho de 1995, a fim de avaliar se os diagnósticos foram realizados em estágios precoces. Os casos foram revisados por três dermatopatologistas, que classificaram quanto ao tipo histológico e quanto ao nível de invasão de Clark. Foi realizado um consenso com pelo menos duas concordâncias. A espessura de Breslow foi considerada fator prognóstico determinante e foi medida através de um sistema de análise de imagem computadorizada, por dois membros da equipe. Resultados: Do total de 279 casos que preencheram os critérios de inclusão, 2,15% eram intraepiteliais. Dos melanomas invasivos, 52% tinham espessura ≤ 1,5 mm. Quando agrupado por sexo e procedência, as mulheres de Porto Alegre, capital do estado do Rio Grande do Sul, tiveram a mais alta taxa de diagnóstico precoce (75% ≤ 1,5 mm). O tronco foi o sítio predominante no homem e freqüente na mulher. O melanoma de espalhamento superficial foi o tipo histológico mais freqüente (80,9%), seguido pelo nodular (10,1%). Para definir os determinantes do diagnóstico precoce, foram realizados cruzamentos simples, dos melanomas intraepiteliais somados aos de espessura <0,76 mm, com o sexo, a idade, a procedência, a situação previdenciária, a região anatômica e o tipo histológico. A análise de variáveis múltiplas demonstrou que apenas o sexo (feminino), o sítio anatômico (outras regiões exceto membros inferiores) e a procedência (Porto Alegre) mostraram-se variáveis independentes para determinar um diagnóstico precoce. A idade ≥ 40 anos apresentou significância próxima ao limite. O tipo histológico foi excluído do modelo, uma vez que gerou instabilidade estatística. Conclusão: Embora o número de casos fosse pequeno, o diagnóstico do melanoma ainda é tardio (52% com até 1,5 mm de espessura). Entretanto, existe um subgrupo de diagnóstico precoce que são mulheres, sobretudo de Porto Alegre, possivelmente por estarem mais atentas e informadas sobre os riscos do melanoma. As mudanças no estilo de vida, nas últimas décadas, provavelmente são responsáveis pela maior incidência no tronco e pela alta freqüência de melanoma de espalhamento superficial encontrada. A análise da espessura tumoral por projeção em tela de computador mostrou-se um recurso auxiliar vantajoso.
Resumo:
Esta dissertação apresenta o programa Seis Sigma e o ramo petroquímico. O objetivo deste trabalho é realizar uma análise crítica do processo de implantação de um projeto Seis Sigma em um setor de uma indústria do ramo petroquímico. A empresa focada desejava obter a diminuição da variabilidade presente na diferença entre os níveis de viscosidade da entrada e da saída em um setor de coagulação e acabamento de látex. Para tanto, é usado um método chamado DMAIC, termo provindo das palavras Define, Measure, Analyze, Improve e Control, que identificam cada uma de suas fases. Na dissertação são abordados Análise dos Modos de Falha e seus Efeitos (FMEA), Projetos de Experimentos (DOE), Controle Estatístico de Processo (CEP), Análise de Sistemas de Medição (ASM), Aprendizagem Organizacional, PDCA e Desdobramento da Função Qualidade (QFD). O autor faz uso da pesquisa-ação, com uma abordagem basicamente quantitativa. Na fase Analisar do projeto detectou-se uma ineficiência do sistema de medição para os objetivos do projeto, assim como, no laboratório as leituras a partir de borracha seca apresentam menor variabilidade que as leituras a partir do látex em estado aquoso. A idade dos rotores e a pressão utilizada nos viscosímetros não são significativas para a redução da variabilidade nas leituras. Porém, a adoção de banho térmico no látex e o reposicionamento dos termosensores nos viscosímetros mostraram-se eficazes. Na fase Controlar ao final do projeto ficou evidenciada uma redução no número de lotes redirecionados. A principal dificuldade encontrada na implementação do método DMAIC foi o acompanhamento inadequado dos indicadores técnicos e financeiros. Houve atrasos no cronograma em função da má definição dos papéis das pessoas envolvidas no projeto, pela falta de uma agenda clara de trabalho e pelo uso de um problema muito complexo em um único projeto.
Resumo:
A segurança no ambiente de redes de computadores é um elemento essencial para a proteção dos recursos da rede, dos sistemas e das informações. Os mecanismos de segurança normalmente empregados são criptografia de dados, firewalls, mecanismos de controle de acesso e sistemas de detecção de intrusão. Os sistemas de detecção de intrusão têm sido alvo de várias pesquisas, pois é um mecanismo muito importante para monitoração e detecção de eventos suspeitos em um ambiente de redes de computadores. As pesquisas nessa área visam aprimorar os mecanismos de detecção de forma a aumentar a sua eficiência. Este trabalho está focado na área de detecção de anomalias baseada na utilização de métodos estatísticos para identificar desvios de comportamento e controlar o acesso aos recursos da rede. O principal objetivo é criar um mecanismo de controle de usuários da rede, de forma a reconhecer a legitimidade do usuário através de suas ações. O sistema proposto utilizou média e desvio padrão para detecção de desvios no comportamento dos usuários. Os resultados obtidos através da monitoração do comportamento dos usuários e aplicação das medidas estatísticas, permitiram verificar a sua validade para o reconhecimento dos desvios de comportamento dos usuários. Portanto, confirmou-se a hipótese de que estas medidas podem ser utilizadas para determinar a legitimidade de um usuário, bem como detectar anomalias de comportamento. As análises dos resultados de média e desvio padrão permitiram concluir que, além de observar os seus valores estanques, é necessário observar o seu comportamento, ou seja, verificar se os valores de média e desvio crescem ou decrescem. Além da média e do desvio padrão, identificou-se também a necessidade de utilização de outra medida para refletir o quanto não se sabe sobre o comportamento de um usuário. Esta medida é necessária, pois a média e o desvio padrão são calculados com base apenas nas informações conhecidas, ou seja, informações registradas no perfil do usuário. Quando o usuário faz acessos a hosts e serviços desconhecidos, ou seja, não registrados, eles não são representados através destas medidas. Assim sendo, este trabalho propõe a utilização de uma medida denominada de grau de desconhecimento, utilizada para medir quantos acessos diferentes do seu perfil o usuário está realizando. O sistema de detecção de anomalias necessita combinar as medidas acima descritas e decidir se deve tomar uma ação no sistema. Pra este fim, propõe-se a utilização de sistemas de regras de produção e lógica fuzzy, que permitem a análise das medidas resultantes e execução do processo de decisão que irá desencadear uma ação no sistema. O trabalho também discute a integração do sistema de detecção de intrusão proposto à aplicação de gerenciamento SNMP e ao gerenciamento baseado em políticas.
Resumo:
Este estudo utiliza o modelo de fronteira estocástica paramétrica com dados em painel para estimação das funções de produção asso- ciadas aos grupos da indústria de transfomação brasileira no período de 1996-2005. Um ponto importante dessa técnica é a possibilidade de utilização de um conjunto de variáveis explicativas para o com- ponente de ine ciência. Com o objetivo de captar as dinâmicas da fronteira tecnológica e do nível de ine ciência foram introduzidos com- ponentes de tendência linear e quadrática. Veri cou-se para o período a ocorrência de aumento do nível de ine ciência técnica e de progresso tecnológico a taxas constantes. Observou-se ainda que o nível de ine - ciência relaciona-se negativamente com os salários médios do pessoal direta e indiretamente ligado à produção, com o percentual de tributos sobre a receita total ,com o grau de terceirização e com o percentual da receita total originário da atividade principal da indústria.
Estudo do desempenho em fadiga do componente tibial metálico de um modelo de prótese total de joelho
Resumo:
A substituição total de uma articulação de joelho é uma técnica amplamente usada para corrigir os danos irreversíveis na juntas originais, causadas por patologias como osteoartrite e artrite reumatóide. Com o aumento número de pacientes jovens e mais ativos, a evolução na técnica da substituição da articulação total de joelho visando desempenho de longo prazo passa a ser uma demanda crítica. Portanto, na tentativa de evitar as falhas prematuras e prolongar a vida em serviço como um todo, as modificações na bandeja tibial podem produzir erros fundamentais. O design da bandeja tibial é um importante fator, porque a sua fratura pode ocorrer em função de elementos geométricos da mesma, como raios de concordância e cantos vivos. A escolha do material e do processo de fabricação também são importantes. No tocante a rota de fabricação, pode ser visto que as ligas forjadas tem o maior limite de fadiga, se comparado com as obtidas pelo processo de fundição. Entretanto, a combinação das técnicas de desenho assistido por computador (CAD), engenharia assistida por computador (CAE) e manufatura assistida por computador (CAM) podem ser uma solução rápida e barata para alcançar melhores características das bandejas tibiais. Contudo, testes pré-clínicos devem ser executados para garantir que as bandejas tibiais não falharão prematuramente devido à fadiga. As técnicas de metalografia, microdureza e espectrometria foram empregadas neste trabalho com o objetivo de caracterizar metalurgicamente a liga de aço inoxidável atualmente empregada. A rugosidade superficial foi avaliada, assim como o número de ciclos para a iniciação das trincas. Com a utilização do método de elementos finitos, verificou-se o ponto de maior tensão e, aliado ao estudo de fractografia, foi determinado o modo de falha Os resultados indicaram que o material atualmente empregado não está em conformidade com todos os requisitos das normas vigentes, de forma que um material alternativo é sugerido. Com o objetivo de melhorar a resistência à fadiga sem apresentar problemas de ordem clínica, cinco geometrias foram propostas e os resultados da análise de tensões pelo método de elementos finitos indicaram um grande potencial de aumento da vida em fadiga.
Resumo:
Este projeto de pesquisa teve por objetivo aprofundar o conhecimento acadêmico sobre a maneira como as empresas estão se utilizando da Internet e outras tecnologias da informação para agregar valor e/ou reduzir custos para os seus clientes, com foco na possibilidade de virtualização dos produtos/serviços oferecidos e dos processos utilizados na sua obtenção, incluindo o relacionamento com fornecedores e outros parceiros comerciais. O estudo foi realizado com base em dados levantados a partir de pesquisa de campo, com aplicação de questionário, e na utilização de métodos quantitativos para a análise das informações obtidas. O objetivo principal foi verificar se o modelo preliminar proposto explicava o comportamento das empresas industriais de São Paulo, permitindo uma reflexão sobre eventuais discrepâncias e o aprimoramento do modelo, além da recomendação de linhas de ação para as empresas. Procurou-se, ainda, determinar se os usos feitos da Internet pelas empresas envolvidas na pesquisa, assim como as transformações por elas realizadas em seu ambiente empresarial em virtude da disponibilização das novas tecnologias, eram extensíveis a outros segmentos do mercado, além dos que representaram o objeto de estudo imediato deste trabalho.
Resumo:
Esta pesquisa investigou a variabilidade da taxa de crescimento das empresas, associando-a a grupos de fatores como os associados ao ramo de negócios, ao período ou ano em que se observa o crescimento, ao país e, finalmente, o grupo de fatores associado à empresa individual de forma idiossincrática. O trabalho inspirou-se na linha de pesquisa de componentes de variância do desempenho financeiro em estratégia usando o crescimento como variável dependente. Os achados indicam que a firma individual é a responsável pela maior parte da variância observada nas taxas de crescimento. País e ano também são fontes de variação relevantes. O ramo de negócios no qual a firma está inserida, contudo, tem uma pequena relevância na explicação da variabilidade. O trabalho usou a base de dados Compustat Global como fonte principal. Os resultados têm implicações tanto para a gestão de empresas ao nível corporativo como para a criação de políticas de desenvolvimento e crescimento. Esta pesquisa fez uma avaliação de uma amostra internacional para poder avaliar o efeito país, mas abre espaço para vários outros estudos mais profundos, com maior foco na realidade brasileira.
Resumo:
A avaliação é um componente importante no processo de ensino/aprendizagem dentro do contexto escolar e seu resultado tem reflexos extra-classe, na medida em que aprovar ou reprovar tem significados pessoal e social fundamentais para o futuro do aluno. A avaliação escolar, atualmente questionada, tem na prova seu instrumento principal. Visando contribuir para a compreensão desse processo na escola, esta pesquisa foi desenvolvida com o objetivo de descrever provas elaboradas por professores de inglês do ensino fundamental bem como buscar, junto a eles, razões para o perfil descrito. O trabalho envolveu quatro professoras de inglês da 5ª à 8ª séries, de uma escola estadual de ensino fundamental, no interior do Rio Grande do Sul, no ano de 2004. A metodologia escolhida para desenvolver a investigação foi o estudo de caso por ser indicada para pesquisas que envolvam questões de "como" e "por que" (Yin, 2003). Constituíram dados da pesquisa 40 provas elaboradas pelas professoras; entrevistas semi-estruturadas com elas, a direção e os alunos, observações durante visitas à escola e de documentos da escola. As provas foram analisadas quanto ao conteúdo avaliado, às técnicas utilizadas e às qualidades de validade, confiabilidade e efeito retroativo. Para a descrição e análise das provas, foram tomados como base os trabalhos de Genesee e Upshur (1998), Bachman e Palmer (1996). Para a discussão das razões para a elaboração desse padrão de prova, a partir das entrevistas com as professoras, foram determinadas as seguintes categorias temáticas: o professor, o aluno, a importância do ensino de inglês e a avaliação. As conclusões indicam: a) quanto aos conteúdos avaliados, o foco das provas concentra-se predominantemente em itens gramaticais, no vocabulário e na estrutura da oração simples; b) quanto às técnicas, há o predomínio de técnicas de resposta limitada mais fáceis de elaborar e corrigir e que exigem pouco conhecimento lingüístico do professor; c) as provas apresentam grau médio de confiabilidade e validade e efeito retroativo negativo. A análise das entrevistas indica que as provas têm esse perfil porque as professoras mantêm visões tradicionais de avaliação, em conseqüência da falta de instrução sobre o assunto no curso de formação inicial, e porque apresentam deficiências significativas na competência lingüístico-comunicativa.
Resumo:
A utilização subótima do patrimônio público em áreas urbanas é um problema que prejudica o desenvolvimento das cidades e reduz o bem-estar de suas populações. Na primeira parte, o trabalho analisa essa situação como a de um equilíbrio inferior em um modelo de massa crítica com múltiplos equilíbrios. Políticas públicas que atuem tanto sobre o patrimônio quanto sobre a coordenação entre os agentes podem iniciar um processo de recuperação da área, que, eventualmente, atinge o equilíbrio superior com ganhos potenciais para todos. Na segunda parte, esse modelo é aplicado para o centro de São Paulo, que, após a saída de certas atividades, entrou em decadência e assim permanece, apesar de ser uma área extremamente bem-dotada de equipamentos públicos e cuja centralidade é seu principal patrimônio.
Resumo:
In this thesis, the basic research of Chase and Simon (1973) is questioned, and we seek new results by analyzing the errors of experts and beginners chess players in experiments to reproduce chess positions. Chess players with different levels of expertise participated in the study. The results were analyzed by a Brazilian grandmaster, and quantitative analysis was performed with the use of statistical methods data mining. The results challenge significantly, the current theories of expertise, memory and decision making in this area, because the present theory predicts piece on square encoding, in which players can recognize the strategic situation reproducing it faithfully, but commit several errors that the theory can¿t explain. The current theory can¿t fully explain the encoding used by players to register a board. The errors of intermediary players preserved fragments of the strategic situation, although they have committed a series of errors in the reconstruction of the positions. The encoding of chunks therefore includes more information than that predicted by current theories. Currently, research on perception, trial and decision is heavily concentrated on the idea of 'pattern recognition'. Based on the results of this research, we explore a change of perspective. The idea of 'pattern recognition' presupposes that the processing of relevant information is on 'patterns' (or data) that exist independently of any interpretation. We propose that the theory suggests the vision of decision-making via the recognition of experience.