968 resultados para Companhia de Navegação
Resumo:
O objetivo desta dissertação é a elaboração de uma técnica da aplicação do formalismo de Autômatos Finitos com Saída (Máquina de Mealy e Máquina de Moore) como um modelo estrutural para a organização de hiperdocumentos instrucionais, em destacar especial, Avaliação e Exercício. Esse objetivo é motivado pela organização e agilização do processo de avaliação proporcionado ao professor e ao aluno. Existem diferentes técnicas de ensino utilizadas na Internet, algumas dessas continuam sendo projetadas com o uso de metodologias tradicionais de desenvolvimento, outras têm a capacidade de modelar de forma integrada e consistente alguns aspectos necessários para uma aplicação WEB. Para alcançar o objetivo proposto, foram realizadas pesquisas nas várias áreas abrangidas pelo tema em evidência, tanto relativo ao processo tradicional (aplicação de prova utilizando metodologia tradicional), como o desenvolvimento de software mediado por computador e uso da Internet em si. A modelagem de desenvolvimento para Internet deve integrar características de técnicas de projeto de sistemas de hipermídia devido à natureza hipertextual da Internet. O uso de hiperdocumento como autômatos com saída está na forma básica de representação de hipertexto, em que cada fragmento de informação é associado a um nodo ou a um link (estado/transições) do grafo. Sendo assim, os arcos direcionados representam relacionamentos entre os nodos ou links, ou seja, uma passagem do nodo origem para o nodo destino. As n-uplas dos autômatos apresentam uma correspondência as estruturas de hiperdocumentos na WEB, seu estado/transição inicial corresponde a sua primeira página e suas transições definidas na função programa, funcionam como ligações lógicas, quando selecionadas durante a navegação do hipertexto. Entretanto, faz-se necessário um levantamento dos modelos de hipertextos e das ferramentas de implementação disponíveis para a Internet, a fim de que seja capaz de suportar as peculiaridades do ambiente. Tudo isso deve ser integrado preferencialmente em um paradigma de desenvolvimento amplamente aceito, para que os projetistas não tenham muitas dificuldades em assimilar os conceitos propostos. A proposta apresentada nesta dissertação, batizada de Hyper-Automaton (hipertexto e autômato), consiste na integração de um Curso na WEB, utilizando formalismo de Autômatos Finitos com Saída para a modelagem dos conceitos necessários e definição das fases adequadas para completar a especificação de Sistema Exercício e Avaliação, bem como a especificação da Geração Automática dos Exercícios e Avaliações baseadas em autômatos para a WEB. Os modelos criados abrangem conceitos de Máquina de Mealy, Máquina de Moore e Aplicações de Hiperdocumentos e Ferramentas de Programação para Internet, os mesmos já testados em caso real. Os parâmetros apurados, nos testes, serviram a uma seqüência de etapas importantes para modelar e complementar a especificação do sistema projetado. Com os parâmetros e etapas de modelagem, a metodologia Hyper-Automaton consegue integrar, de forma consistente, as vantagens de várias técnicas específicas de modelagem de documentos e sistemas de hipermídia. Essas vantagens, aliadas ao suporte às ferramentas de desenvolvimento para Internet, garantem que a metodologia fique adequada para a modelagem de Sistemas com aplicação de métodos de autômatos para exercícios e avaliação na WEB.
Resumo:
Esta dissertação introduz uma abordagem para a previsão de vendas de empresas no contexto do desenvolvimento de novos produtos. Supõe-se que o método proposto dê sustentação ao processo decisório relativo às primeiras fases do desenvolvimento desses produtos. Também visa alcançar algum nível de compreensão relativamente à influência de fatores externos e internos nos níveis de vendas. Basicamente este método compreende três etapas próprias: análise do ambiente externo e interno à companhia, modelagem do comportamento de demanda (potencial de mercado, vendas da empresa, faturamento do segmento de mercado da empresa) e suas respectivas projeções no tempo. Esta abordagem foi aplicada a uma situação específica de desenvolvimento de um novo produto em uma empresa de médio porte que opera como fabricante de brinquedos. É esperado que empresas de pequeno e médio portes que enfrentem restrições de orçamento possam achar esta abordagem praticável - desde que as informações requeridas possam ser coletadas e mantidas adequadamente.
Resumo:
Os Sistemas de Recuperação de Informações (SRI) computadorizados são sistemas capazes de armazenar, recuperar e manter informações, visando minimizar o esforço humano na realização de tais atividades. A classificação de textos é um subdomínio dos sistemas de recuperação de informações que tem como objetivo classificar um texto em uma ou mais categorias existentes. Pode ser utilizada na classificação de mensagens, notícias e documentos, na filtragem de informações, na sumarização de textos, além de auxiliar profissionais na execução destas tarefas. A filtragem automatizada das mensagens de correio eletrônico é uma forma de organizar o trabalho do usuário. O volume de informações divulgadas através deste serviço torna fundamental um sistema de filtros para melhor uso do serviço. Sieve é uma proposta para padrão de linguagens de filtro de mensagens. O Direto é um software de correio, agenda e catálogo corporativos que visa atender todo Governo do Estado do Rio Grande do Sul. Foi desenvolvido na PROCERGS, Companhia de Processamento de Dados do Estado do Rio Grande do Sul, utilizando a linguagem Java e utiliza os serviços de IMAP, SMTP, LDAP e SGBD. Está disponível com licença de software livre. O objetivo deste trabalho é aplicar técnicas de filtragem no Direto. O trabalho apresenta uma solução para filtrar as mensagens de correio do Direto utilizando Sieve. Também é especificado um serviço de canais de informação que visa divulgar informações de forma eficiente no Estado. Este serviço possui vários canais, cada um destinado a divulgar informações de determinado domínio. O usuário assina os canais que desejar e pode criar filtros para melhor refinamento das informações que deseja receber. Os filtros utilizam técnicas de classificação de textos no processo de filtragem.
Resumo:
O desenvolvimento de projetos de interfaces gráficas está apoiado em guias de recomendações. Estes guias apresentam regras genéricas aos projetos de Interfaces Homem Computador–IHC. Entretanto, aplicações particulares, como as educacionais, não encontram regras específicas que atendam as necessidades do usuário-alvo. Ainda, a análise comparativa entre guias disponíveis aponta contradições entre as recomendações genéricas com aquelas específicas aplicadas a um determinado ambiente. A necessidade de um modelo de referência para a construção de interfaces gráficas amigáveis ao usuário e a escassez e contradições de recomendações específicas às aplicações educacionais motivaram o trabalho de pesquisa prática junto aos usuáriosalvo. Para a identificação das recomendações sobre aspectos gráficos básicos e elementos de navegação necessários a uma efetiva interação com interfaces dedicadas a aplicações educacionais, foi desenvolvido um instrumento de pesquisa que permitiu a investigação das preferências relativas aos aspectos pesquisados junto ao público-alvo. Os dados coletados foram tratados estatisticamente e os resultados obtidos contrariam tanto critérios adotados em interfaces de sistemas de ensino disponíveis na Internet como algumas recomendações sobre os mesmos disponíveis na literatura. Os resultados obtidos apontam, também, para a preferência dos usuários por elementos de navegação que não são referidos nos guias de recomendações consultados. A análise dos resultados possibilitou a geração de um modelo básico que recomenda preferências sobre aspectos gráficos básicos, como aplicação de cores em fontes e fundos de tela, tipologia de fontes para textos e paginação, e também, sobre componentes de navegação, como posicionamento e preferência por tipo de recurso de navegação. O modelo proposto está fundamentado nas recomendações de Nielsen [NIE 00], o qual recomenda que as necessidades dos usuários na interatividade com a interface sejam identificadas junto a estes usuários. As recomendações apresentadas neste trabalho foram utilizadas, inicialmente, nos ambientes educacionais desenvolvidos dentro dos projetos Tapejara [TAP 00] e LaVia [LAV 00].
Resumo:
Dentre as profundas modificações experimentadas na Sociedade e, em especial, as que se produzem no mundo do trabalho, observamos movimentos em direção a formas de trabalho flexível, entre as quais se insere o Teletrabalho. Sem ser propriamente novo no cenário mundial, no Brasil ele surge com maior expressão recentemente, passando a ocupar espaços na mídia em geral e nos ambientes universitários. Todavia, são poucas as referências acadêmicas brasileiras ao assunto e estudos se fazem necessários. Com a pretensão de contribuir com conhecimentos a respeito do assunto, sob o prisma da realidade brasileira e de uma situação particular, o estudo utilizou referências teóricas e empíricas para examinar a viabilidade do Teletrabalho na Companhia de Processamento de Dados do Município de Porto Alegre. Abrangeu a análise de condições organizacionais, técnicas, humanas, legais e sindicais compreendidas na proposta e incluiu, igualmente, uma sugestão para um projeto de demonstração. O estudo, notadamente qualitativo, valoriza as perspectivas de segmentos potencialmente envolvidos num processo de adoção de Teletrabalho pela Empresa, como elemento para a sua compreensão. Foi desenvolvido mediante a realização de entrevistas com representantes dos sindicatos da categoria, dos funcionários e chefias, Diretoria da Empresa e especialistas em assuntos jurídicos e segurança de informações. O estudo concluiu ser a introdução do Teletrabalho viável em parte, num sistema de voluntariado, em regime de tempo parcial e, pelo menos inicialmente, em ambientes de telecentros. Mesmo existindo uma série de condições favoráveis, o atendimento de certos prérequisitos e o equacionamento de dúvidas e dificuldades são essenciais para promover uma implementação adequada, considerando as condições internas da Empresa, seu papel institucional e o contexto social onde está inserida. A pesquisa, na verdade, pode ser considerada um passo inicial dentro de um processo mais amplo, que integra o domínio da tecnologia do Teletrabalho para uso interno na Empresa, se assim for desejado, ou como uma alternativa para proposição de novos serviços a clientes e à comunidade.
Resumo:
Navegação, seleção e manipulação de objetos em ambientes virtuais são baseadas em métodos (técnicas de interação) associados a dispositivos convencionais ou especiais. Existem várias técnicas e dispositivos à disposição dos que desenvolvem aplicações com tais ambientes, sendo a escolha da técnica mais adequada uma tarefa difícil. Neste trabalho, são apresentadas diversas técnicas de interação existentes, suas metáforas e taxonomias, para realizar tarefas de seleção e manipulação de objetos e navegação do usuário pelo AV. A metodologia adotada nos experimentos realizados, visando a avaliar técnicas de interação em AVs imersivos foi composta por critérios de avaliação de interfaces de IHC (interface humano-computador), com critérios utilizados por Bowman, Mine e Poupyrev em seus experimentos com interfaces 3D. Também são apresentados alguns experimentos realizados, tendo vista avaliarem-se técnicas de interação na realização de tarefas de navegação, seleção e manipulação de objetos em ambientes virtuais imersivos. O objetivo deste trabalho foi a realização de experimentos para avaliar técnicas de interação para operações de seleção, manipulação e navegação em ambientes virtuais. Foram realizadas duas experiências: a primeira é uma avaliação de técnicas de seleção e manipulação em um ambiente semi-imersivo similar a um jogo de xadrez. As técnicas avaliadas são a mão virtual, associada a um mouse comum e a uma luva; e a ray-casting, associada à luva. Observou-se que o desempenho dos sujeitos é superior, quando a técnica utilizada é a mão virtual associada ao mouse comum. A segunda experiência apresenta uma avaliação experimental de dispositivos de RV em tarefas de navegação. Foi criado um ambiente, contendo um edifício com um elevador panorâmico e corredores de entrada e saída. Os testes foram realizados num ambiente imersivo, com capacete e luva, e, também em um ambiente semi-imersivo, com mouse comum e óculos com lentes de cristal líquido. Nesse segundo experimento, a preferência dos usuários pelos equipamentos utilizados foram o capacete e a luva. Observou-se que a existência ou não de objetos familiares no trajeto percorrido pelo usuário, não afeta a quantidade de colisões do sujeito com as mesmas.
Resumo:
O final da Glaciação Neopaleozóica está representado hoje no registro sedimentar da Bacia do Paraná pelas rochas do Grupo Itararé. No Estado do Rio Grande do Sul e no sudeste do Estado de Santa Catarina seus depósitos possuem idade eopermiana, datados desde o Asseliano até o Artinskiano. A partir de dados de testemunhos e de perfis de raios gama de dois poços, um em Santa Catarina (7-RL-04- SC) e outro no Rio Grande do Sul (IB-93-RS), perfurados para pesquisa de carvão pela CPRM (Companhia de Pesquisa de Recursos Minerais), foram feitas análises cicloestratigráficas com o intuito de determinar a existência e a natureza da possível ciclicidade induzida por fenômenos astronômicos presente nesses sedimentos glaciais (basicamente folhelhos e ritmitos). A distância entre as locações originais dos poços (cerca de 380 km) possibilitou testar a influência da indução astronômica em localidades distintas da bacia. Dois métodos de amostragem foram utilizados no estudo, de acordo com a escala dos dados e com a possível indução: os perfis de raios gama (191 m para o 7-RL-04-SC e 71 m para o IB-93-RS) foram digitalizados e amostrados em intervalos de 1 cm, com o intuito de testar a presença de indução pelos ciclos orbitais na escala de 20 mil a 400 mil anos, ou outros fenômenos indutores na escala de 3 mil a 10 mil anos, e os testemunhos foram escaneados nos intervalos com ritmitos, (1,2 m para o 7-RL-04-SC e 38 cm para o IB-93-RS) e transformados em dados em escala de cinza equiespaçados (0,2538 mm), objetivando a busca por ciclos anuais a milenares A análise harmônica pela transformada rápida de Fourier demonstrou a presença de ciclicidade em ambas as escalas: ciclos orbitais, com períodos de cerca de 17 mil a 100 mil anos, foram caracterizados em perfil e ciclos solares, com períodos de cerca de 22 a 1000 anos, foram evidenciados nos testemunhos. Os tempos de acumulação calculados para o poço 7-RL-04-SC nas duas escalas mostraram um alto grau de correlação (cerca de 9400 anos para o intervalo escaneado e aproximadamente 12600 para o mesmo intervalo nos dados do perfil), comprovando a eficiência dos métodos de obtenção dos dados e a utilidade da cicloestratigrafia como ferramenta de análise e refinamento cronoestratigráfico. Quanto às espessas seções de ritmitos, características do Grupo Itararé e presentes nos testemunhos, estas têm sido freqüentemente denominadas de varvitos ou referenciadas como semelhantes a varvitos na literatura. Porém os resultados mostraram que cada par de ritmitos foi depositado em períodos de vinte e dois anos, relacionados aos ciclos solares de Hale. A análise permitiu ainda o estudo das relações existentes entre várias variáveis, como a taxa e o tempo de acumulação, e a definição, na seção do poço 7-RL-04-SC, de seqüências deposicionais de terceira e de quarta ordem. Essas últimas são associadas à indução pelos ciclos orbitais de excentricidade e comparáveis aos períodos glaciais do Pleistoceno, sendo que as taxas de acumulação calculadas para os dados do poço, variando entre 5,2 a 9,3 cm/ka, são muito similares às taxas de acumulação do Pleistoceno. A análise também mostrou que a seção completa do Grupo Itararé no poço IB-93-RS corresponde apenas à cerca de meio ciclo de precessão (12342 anos). Como os dois fenômenos de indução astronômica detectados, os ciclos solares e os orbitais, afetam o clima de maneira global, certamente influenciaram a sedimentação em outros pontos da bacia.
Resumo:
A ação missionária empreendida na América pela Companhia de Jesus a partir do século XVI, congregando diferentes povos nativos, teve reconhecimento alguns pontos altos. Dentre estes, destacou-se a Província Jesuítica do Paraguai, onde, com os índios Guarani, desenvolveu-se uma experiência diferenciada do ponto de vista sócio-econômico-cultural que vem despertando, ao longo do tempo, um grande número de discussões e de polêmicas a seu respeito. No campo da arquitetura e dos ordenamentos urbanos, consolidou-se um autêntico padrão de assentamento humano, que pode ser designado como tipologia urbana missioneira. Reproduzindo-se e todo um grande território, essa tipologia formou uma redee organizada de povoados que funcionavam como um sistema peculiar e reconhecível, tomando por base em sua configuração o espírito do movimento barroco. Nesse espaço de exceção destacou-se a redução de São Miguel Arcanjo, cujos remanescentes o receberam da UNESCO o título de Patrimônio Cultural da Humanidade. Escolhemos a redução dee São Migue para este estudo de caso, tomando-a como um arquétipo na busca de respostas que possam auxiliar a elucidar as origens, as influências e as características desse sistema e ao significado dos componentes espaciais ali produzidos e das decorrentes práticas sociais desenvolvidas.
Resumo:
A Avaliação do risco de crédito agregado é um grande desafio para as empresas em todo mundo. O dinamismo do mercado e o desenvolvimento dos derivativos de crédito tornaram a gestão do risco de crédito fundamental para o negócio das instituições financeiras. Nas instituições não-financeiras, o foco na gestão do risco de crédito agregado ainda é pequeno, mas os benefícios e a necessidade de uma visão agregada da carteira já são identificados. No caso brasileiro, esse trabalho é dificultado devido à carência de base de dados e ao mercado financeiro pouco desenvolvido. Diante desse desafio, o objetivo do trabalho é apresentar um modelo para avaliação do risco de crédito agregado que seja aplicável em empresas brasileiras não-financeiras, onde o CreditRisk+ foi escolhido pela facilidade de cálculo e baixa dependência de informações de mercado. Entretanto, para adequá-lo ao caso brasileiro são necessárias algumas flexibilizações, que serão apresentadas a seguir no modelo adaptado para o caso brasileiro. Por fim, para testar a aderência do modelo, foi utilizada uma amostra da carteira de crédito da Companhia Vale do Rio Doce (CVRD), que nos fornece resultados conclusivos sobre a performance da metodologia escolhida ao final do trabalho.
Resumo:
Este trabalho busca explorar, através de testes empíricos, qual das duas principais teorias de escolha de estrutura ótima de capital das empresas, a Static Trade-off Theory (STT) ou a Pecking Order Theory(POT) melhor explica as decisões de financiamento das companhias brasileiras. Adicionalmente, foi estudado o efeito da assimetria de informações, desempenho e liquidez do mercado acionário nessas decisões. Utilizou-se no presente trabalho métodos econométricos com dados de empresas brasileiras de capital aberto no período abrangendo 1995 a 2005, testando dois modelos representativos da Static Trade-off Theory (STT) e da Pecking Order Theory(POT). Inicialmente, foi testado o grupo amplo de empresas e, posteriormente, realizou-se o teste em subgrupos, controlando os efeitos de desempenho e liquidez do mercado acionário, liquidez das ações das empresas tomadoras e assimetria de informações. Desta forma, os resultados obtidos são indicativos de que a Pecking Order Theory, na sua forma semi-forte, se constitui na melhor teoria explicativa quanto à escolha da estrutura de capital das empresas brasileiras, na qual a geração interna de caixa e o endividamento oneroso e operacional é a fonte prioritária de recursos da companhia, havendo algum nível, embora baixo, da utilização de emissão de ações. Os estudos empíricos para os subgrupos de controle sugerem que a liquidez do mercado e liquidez das ações das empresas são fatores de influência na propensão das empresas emitirem ações, assim como a assimetria de informação. O desempenho do mercado acionário, com base nos dados analisados, aparenta ter pouca influência na captação de recursos via emissões de ações das empresas, não sendo feito no presente estudo distinções entre emissões públicas ou privadas
Resumo:
Este trabalho realiza uma análise das estruturas comuns de gestão dos recursos dos Fundos de Pensão no Brasil, de forma a inferir as relações de agência entre, de um lado, os participantes do plano e os beneficiários e, de outro lado, todos os agentes envolvidos na administração ou financiamento do fundo de pensão como seu patrocinador ou administrador. O conceito de governança no que tange a estes fundos de pensão diz respeito às relações entre as diversas entidades e pessoas envolvidas em seu funcionamento. A Governança trata de uma estrutura que abrange igualmente os objetivos deste fundo de pensão estabelecidos, os meios de atingir estes objetivos e o monitoramento da perfomance dos investimentos. Esta estrutura pode ser vista como o espelho da governança corporativa de uma empresa aberta, que consiste no conjunto de relações entre a gerência da companhia, seu conselho administrativo, seus acionistas e outros detentores de poder (stakeholders). A estrutura ideal de governança busca partilhar as responsabilidades e controles entre os gestores internos dos próprios fundos de pensão e instituições independentes que zelem pelo cumprimento de propósitos originais de gestão.
Resumo:
O presente trabalho investigou os principais fatores de formação das estratégias ambientais empresariais, e como eles influem e condicionam estas estratégias no contexto específico de cada empresa. Além disso, foi analisada a evolução das práticas ambientais das empresas, o que resultou na proposta de um modelo de análise das estratégias ambientais a partir de seus principais fatores de influência. Apesar de utilizar em sua formulação conceitos básicos de estratégia empresarial, bem como diferentes estudos que tratam de estratégias ambientais em empresas, o trabalho fundamentou-se principalmente na teoria organizacional institucionalista. Isto decorre do fato de que esta teoria amplia o conceito de ambiente externo da organização para contemplar os aspectos institucionais, e amplia os objetivos estratégicos da organização para contemplar a busca de legitimidade. Com isto ela contempla de forma mais abrangente os fatores que influem e condicionam as estratégias ambientais nas empresas. A pesquisa empírica é composta por quatro estudos de caso em dois setores industriais distintos, a Refinaria de Petróleo Ipiranga (RPI) e a Companhia Petroquímica do Sul (Copesul) representando a indústria do petróleo, e a unidade da Klabin de Otacílio Costa e a Cambará Produtos Florestais representando a indústria de papel e celulose. Entre as conclusões do trabalho está a confirmação da importância da teoria institucional no estudo das estratégias ambientais das empresas. Esta importância decorre de várias questões observadas nos estudos, tais como a preponderância que as demandas e pressões do ambiente externo têm sobre os processos de formação e evolução das estratégias ambientais, a importância que a busca de legitimação tem na conformação das práticas ambientais e de sua divulgação pelas empresas, e a existência de um processo de institucionalização das questões ambientais nas empresas, através da criação de uma estrutura formal para a área ambiental, da profissionalização da gestão ambiental, da certificação de sistemas de gestão e da inclusão de aspectos ambientais nos processos formais de planejamento da empresa. Conclui-se também que as estratégias ambientais são fundamentalmente contingentes e contextuais; contingentes porque as demandas e pressões são mais importantes do que as ações voluntárias das empresas no direcionamento da sua conduta ambiental, e contextuais porque estas contingências são muito particulares do contexto de cada empresa. Observou-se que, embora haja um sentido geral comum de evolução das práticas ambientais das empresas, o timing com que esta evolução ocorreu, o tipo de práticas utilizadas, a profundidade das melhorias realizadas, os fatores motivadores das mesmas e o tipo de contingências que sofreram foram diferentes para cada uma e podem ser explicadas pelo contexto individual das mesmas. A partir desta constatação, elaborou-se um modelo de análise dos fatores que contingenciam as estratégias ambientais empresariais, dividindo o seu contexto estratégico em seis contextos específicos, cinco externos (regulativo, locacional, de recursos, de mercado e setorial) e um interno (contexto organizacional), os quais são descritos e analisados a partir de seus elementos contextuais.
Resumo:
O objetivo do presente estudo é avaliar a existência de quebra estrutural no Value-at-Risk (VaR) das empresas que negociam suas ações na bolsa de valores de Nova Iorque (NYSE). O evento que justi ca a suspeita de mudança estrutural é a lei de governança corporativa conhecida como Sarbanes-Oxley Act (ou simplesmente SOX), a mais profunda reforma implementada no sistema de legislação nanceira dos Estados Unidos desde 1934. A metodologia empregada é baseada em um teste de quebra estrutural endógeno para modelos de regressão quantílica. A amostra foi composta de 176 companhias com registro ativo na NYSE e foi analisado o VaR de 1%, 5% e 10% de cada uma delas. Os resultados obtidos apontam uma ligação da SOX com o ponto de quebra estrutural mais notável nos VaRs de 10% e 5%, tomando-se como base a concentração das quebras no período de um ano após a implementação da SOX, a partir do teste de Qu(2007). Utilizando o mesmo critério para o VaR de 1%, a relação encontrada não foi tão forte quanto nos outros dois casos, possivelmente pelo fato de que para uma exposição ao risco tão extrema, fatores mais especí cos relacionados à companhia devem ter maior importância do que as informações gerais sobre o mercado e a economia, incluídas na especi cação do VaR. Encontrou-se ainda uma forte relação entre certas características como tamanho, liquidez e representação no grupo industrial e o impacto da SOX no VaR.
Resumo:
Credit risk management has assumed increasing importance for the managers and directors of enterprises. Thus, different approaches aimed to measure the probability of default are under discussion nowadays. This paper evaluates models that have become more popular over the last 30 years in order forecast defaults or to provide information regarding to financial difficulties of enterprises. This paper will focus on the KMV model in order to estimate the probability of default, its methodology based on market value of the asset and its volatility and finally estimate the probability of default. Finally, to test the KMV model will be used a sample of global steel companies that have credit in Companhia Vale do Rio Doce (CVRD), which will allow us to make comparisons with the models presented in this work.
Resumo:
Atualmente, a World Wide Web (WWW) já se estabeleceu como um dos meios de divulgação mais difundidos. Sendo um meio de publicação de custo relativamente baixo, muitas iniciativas foram desenvolvidas no sentido de estendê-la e transformá-la também numa ferramenta de apoio. Assim, uma série de pesquisas foi realizada no sentido de promover e facilitar o gerenciamento das informações da WWW, que são estruturadas, em sua maioria, como conjuntos de documentos inter-relacionados. Grafos são estruturas utilizadas para a representação de objetos e seus múltiplos relacionamentos. Nesse sentido, pode-se afirmar que hiperdocumentos podem ser modelados através de grafos, onde uma página representa um nodo e um link para outra página é representado por uma aresta. Considerando estas características, e dada a crescente complexidade dos materiais publicados na WWW, desenvolveu-se, ao longo da última década, o uso de técnicas e recursos de Visualização de Grafos com larga aplicação na visualização da estrutura e da navegação na WWW. Técnicas de visualização de grafos são aplicáveis especificamente para representar visualmente estruturas que possam ser modeladas por meio de objetos relacionados, sendo investigadas técnicas para a abstração de modo a facilitar tanto o processo de compreensão do contexto da informação, quanto a apreensão dos dados relacionados. Este trabalho tem como objetivo a investigação de técnicas de Visualização de Grafos aplicadas a autômatos finitos com saída. Este direcionamento se deve ao fato de alguns autores utilizar a abordagem de autômatos finitos com saída para as estruturas de hiperdocumentos. Se for considerado que um documento da WWW (ou o estado de um autômato) é composto por fragmentos de informação (ou saídas) tais como trechos de texto, imagens, animações, etc e que este documento é relacionado a outros por meio de links (ou transições), tem-se a verificação de sua representatividade por meio destas estruturas. Em trabalho anterior, no âmbito do PPGC da UFRGS, a ferramenta Hyper-Automaton foi desenvolvida com o objetivo de estender o uso da Internet no sentido de prover uma ferramenta de apoio à publicação de materiais instrucionais. Por adotar a notação de autômatos finitos com saída, possibilita, além da criação e gerenciamento de hiperdocumentos, a reutilização de fragmentos de informação sem que haja qualquer interferência de um autômato que utilize este fragmento sobre outro. O Hyper-Automaton foi selecionado como caso de estudo motivador deste trabalho. As técnicas aqui desenvolvidas têm como intuito diminuir a complexidade visual da informação, assim como permitir a navegação através dos autômatos finitos com saída de forma que seja possível visualizar detalhes como as saídas e informações relacionadas a cada uma delas, mantendo a visualização do contexto da informação. Foram analisadas técnicas de agrupamento como forma de redução da complexidade visual, e técnicas do tipo foco+contexto, como alternativa para prover a visualização simultânea do contexto e dos detalhes da informação.