67 resultados para Mercado financeiro - Processamento de dados
Resumo:
A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.
Resumo:
A Descoberta de Conhecimento em Banco de Dados (DCBD) é uma nova área de pesquisa que envolve o processo de extração de conhecimento útil implícito em grandes bases de dados. Existem várias metodologias para a realização de um processo de DCBD cuja essência consiste basicamente nas fases de entendimento do domínio do problema, pré-processamento, mineração de dados e pós-processamento. Na literatura sobre o assunto existem muitos trabalhos a respeito de mineração de dados, porém pouco se encontra sobre o processo de pré-processamento. Assim, o objetivo deste trabalho consiste no estudo do pré-processamento, já que é a fase que consome a maior parte do tempo e esforço de todo o processo de DCBD pois envolve operações de entendimento, seleção, limpeza e transformação de dados. Muitas vezes, essas operações precisam ser repetidas de modo a aprimorar a qualidade dos dados e, conseqüentemente, melhorar também a acurácia e eficiência do processo de mineração. A estrutura do trabalho abrange cinco capítulos. Inicialmente, apresenta-se a introdução e motivação para trabalho, juntamente com os objetivos e a metodologia utilizada. No segundo capítulo são abordadas metodologias para o processo de DCBD destacando-se CRISP-DM e a proposta por Fayyad, Piatetsky-Shapiro e Smyth. No terceiro capítulo são apresentadas as sub-fases da fase de pré-processamento contemplando-se entendimento, seleção, limpeza e transformação de dados, bem como os principais métodos e técnicas relacionados às mesmas. Já no quarto capítulo são descritos os experimentos realizados sobre uma base de dados real. Finalmente, no quinto capítulo são apresentadas as considerações finais sobre pré-processamento no processo de DCBD, apontando as dificuldades encontradas na prática, contribuições do presente trabalho e pretensões da continuidade do mesmo. Considera-se como principais contribuições deste trabalho a apresentação de métodos e técnicas de pré-processamento existentes, a comprovação da importância da interatividade com o especialista do domínio ao longo de todo o processo de DCBD, mas principalmente nas tomadas de decisões da fase de pré-processamento, bem como as sugestões de como realizar um pré-processamento sobre uma base de dados real.
Resumo:
A globalização eliminou, ao longo dos tempos, as fronteiras territoriais para os capitais financeiros e intelectuais e, conseqüentemente, tem exigido dos governos, empresas, administradores e investidores uma enorme variedade de informações para nortear investimentos potencialmente eficientes e geradores de riquezas capazes de atrair e mobilizar esses recursos. Empreendedores modernos, coadunados com essa nova realidade mundial, têm buscado nas teorias da administração financeira elementos importantes na análise de seus planos estratégicos e dos projetos de investimentos, buscando minimizar os riscos e maximizar os recursos financeiros disponíveis e suas estruturas físicas e materiais, além de conhecer e prever os desdobramentos de suas decisões sobre a perpetuidade de suas empresas. Esses novos visionários agregam valor econômico à empresa e aos investidores, pois suas decisões empresariais e de investimentos são tabuladas de forma a projetar seus empreendimentos no longo prazo, afastando, desde já, a insolvência das empresas como suporte sócio-econômico da dinâmica das nações. Os variados modelos desenvolvidos nos campos acadêmicos para as áreas de administração financeira, quer por desconhecimento, descaso dos administradores ou pela complexidade de alguns destes, ainda não foram disseminados para um grande contingente de empresas ao redor do planeta. Certos modelos possuem especificidades restritas ou se prestam a situações especiais. Alguns empreendedores ainda se utilizam dos resultados extraídos da contabilidade tradicional na definição de valor econômico de seus investimentos, de uma maneira geral, dando ênfase aos dados financeiros tradicionais originados na contabilidade Para corrigir está deficiência estrutural, os acadêmicos desenvolveram modelos que, acompanhados dos dados relatados pela contabilidade, da forma como se apresenta na atualidade, complementam e dão suporte aos envolvidos, objetivando a mensuração do valor econômico de seus empreendimentos e a eficiência de suas decisões. Dentre esses variados modelos, pode-se destacar o modelo de fluxo de caixa descontado (DFC), considerado uma ferramenta eficiente para a avaliação de investimentos ao capturar a agregação de valor do projeto no longo prazo e os riscos inseridos no mesmo, muitas vezes negligenciado pelos administradores. O modelo em questão, e os outros mais, serão, sumariamente, conceituados ao longo do presente estudo, buscando identificar as potencialidades de cada um e em que tipo de avaliação pode, ou deve, ser aplicado. Conclusivamente, serão aplicadas todas as premissas abstraídas do modelo DFC, recomendado por COPELAND, KOLLER e MURRIN (2002), ajustado às características da empresa, para conhecer o valor de mercado da Linck Agroindustrial Ltda.
Resumo:
Este trabalho tem por objetivo apresentar a fundamentação teórica e efetuar uma aplicação prática de uma das mais importantes descobertas no campo das finanças: o modelo de precificação de ativos de capital padrão, denominado de Capital Asset Price Model (CAPM). Na realização da aplicação prática, comparou-se a performance entre os retornos dos investimentos exigidos pelo referido modelo e os realmente obtidos. Foram analisadas cinco ações com a maior participação relativa na carteira teórica do Ibovespa e com retornos publicados de junho de 1998 a maio de 2001. Os dados foram obtidos da Economática da UFRGS e testados utilizando-se o Teste-t (duas amostras em par para médias) na ferramenta MS Excel. Os resultados foram tabelados e analisados, de onde se concluiu que, estatisticamente, com índice de confiança de 95%, não houve diferença de performance entre os retornos esperados e os realmente obtidos dos ativos objeto desta dissertação, no período estudado.
Resumo:
A importância da validação de Sistemas de Apoio à Dedisão (SAD) cresce na medida em que o uso destes tem crescido a partir da facilidade de acesso das pessoas a computadores cada vez com maior capacidade de processamento e mais baratos. Este trabalho procura estabelecer um procedimento prático para um método de validação de SAD. Para tal, este procedimento foi aplicado na validação de um SAD financeiro na área de avaliação de opções. O método foi desenvolvido em três etapas básicas: validação conceitual, verificação e legitimidade, tendo apoio em uma metodologia desenvolvida por Borenstein e Becker (2001). As conclusões basearam-se em procedimentos qualitativos de validação, utilizando-se de testes de laboratório e de campo. Constatou-se que o método apresentou bons resultados, embora o caráter qualitativo da validação, demonstrando que este tem potencial para ser aplicado a outros sistemas, preenchendo uma lacuna na literatura de SAD.
Resumo:
Este trabalho discorre no escopo de informática médica, no âmbito da Unidade de Cardiologia Fetal do Instituto de Cardiologia - Fundação Universitária de Cardiologia do RS. Sabe-se que a medicina gera um grande volume de dados, sejam eles, textuais, numéricos, gráficos ou mesmo imagens ou sons geradas por equipamentos de ultra-som, tomógrafos computadorizados, ressonância magnética, RX, entre outros. Este trabalho desenvolve a integração das imagens ecocardiográficas fetais ao banco de dados. Atualmente, a tendência observada no desenvolvimento de sistemas de informações é a utilização de banco de dados que sejam capazes de manipular informações completas sobre seus pacientes, tais como: consultas, medicamentos, internações, bem como os laudos de exames com suas respectivas imagens quando estes possuírem. É com base nestas tendências que foram definidos os tópicos relevantes a serem estudados e implementados neste trabalho, integrando os estudos ecocardiográficos fetais com as informações do banco de dados da unidade de cardiologia fetal (UCF). Neste trabalho está apresentado o modelo do banco de dados da UCF. Para esta modelagem foram realizados estudos para aquisição de conhecimento da área e também para compreender as necessidades da unidade Da mesma forma, as imagens ecocardiográficas fetais foram estudadas para que fosse possível serem modeladas junto ao banco de dados. Para esta modelagem foi necessário fazer uma breve revisão dos conceitos utilizados pelo paradigma de orientação a objetos, uma vez que o modelo foi desenvolvido utilizando esta metodologia. As imagens ecocardiográficas fetais receberam grande atenção, uma vez que para elas foram criadas classes distintas. Também para aumentar a funcionalidade foram estudados conceitos de imagem digital, para posterior aplicação sobre as imagens do domínio. Foram realizados estudos sob manipulação de imagens, como modificação do brilho, medidas, filtros e formas de armazenamento. Considerando os formatos de gravação, dois padrões foram contemplados neste trabalho: o utilizado pela placa disponível no instituto denominado DT-IRIS e o DICOM que é um padrão internacional de armazenamento e comunicação de imagens médicas. Por fim, a implementação do protótipo procura demonstrar a viabilidade do modelo proposto, disponibilizando dados textuais, imagens e ainda realizando manipulações sobre estas imagens do domínio.
Resumo:
O futuro das empresas de base tecnológica depende essencialmenteda maximização do seu desempenho nas relações que elas estabeleçam com seus mercados, e do equilíbrio entre as suas competências tecnológicas e mercadológicas. Neste contexto, o "braço" de mercado das empresas é constituído pelo marketing, que atua como função maximizadora. Na indústria brasileira de biotecnologia, além de incipiente, ele é desconhecido, constituindo-se num verdadeiro calcanhar-de-Aquiles do acoplamento entre oferta e demanda. Este trabalho retrata, pela primeira vez, o perfil das atividades da indústria brasileira de biotecnologia, centrado nas relações com o mercado e busca avaliar o estágio atual da relação existente entre as competências tecnológicas e as mercadológicas das empresas. Tem por objetivos propiciar informações essenciais e realizar um diagnóstico inicial sobre o tema, para que os personagens envolvidos possam tomar consciência de seus pontos fortes e fracos e, em decorrência, assumir posturas e elaborar planos para um reposicionamento e o desenvolvimento de competências específicas em suas relações com o mercado. A partir de estudo exploratório qualitativo, seguido de estudo descritivo com uma amostra de 54 empresas e dados do primeiro semestre de 1996, é feita a descrição das características gerais relativas à gestão e à tecnologia das empresas, sendo dada atenção especial às atividades de marketing. São analisadas as relações entre as competências técnicas e mercadológicas das empresas, apresentadas as decorrentes implicações, formuladas recomendações à indústria e sugeridas questões para futuras pesquisas. As organizações estudadas atuam essencialmente no mercado industrial e buisinessto- business, mostrando-se como technology push e praticando muito mais uma filosofia de gestão "produtos-orientada" do que "mercado orientada". Exercem somente em parte, as atividades essenciais da função marketing. A relação mercado-tecnologia mostra a supremacia da competência tecnológica sobre a mercadológica, indicando que, para ganhar maior competitividade, a maioria das empresas deve rever seu atual posicionamento, planejar e promover significativo desenvolvimento de competências mercadológicas específicas.
Resumo:
Quantificação de incerteza e risco tem aplicação direta no projeto de limites de cava e na programação de produção. Pequenas variações nas condições de contorno de um projeto podem ter impacto significativo sobre o retorno final do mesmo na ordem de milhões de dólares. Preço de mercado do bem mineral, o custo de capital, taxas de atratividade, etc, são fatores usualmente testados para analisar a viabilidade de um empreendimento, porém, raramente é considerada a incerteza relacionada ao atributo geológico em questão. O propósito de um planejamento de lavra tem sido prover subsidio para o engenheiro de minas decidir sobre a capacidade de minerar determinadas unidades de lavra do depósito a partir de teores estimados. Salienta-se porém que existe, a partir dos dados amostrais, incertezas a respeito do modelo geológico que devem ser consideradas ao se projetar uma cava e desenvolver a lavra. A simulação geoestatistica tem a capacidade de produzir múltiplos modelos equiprováveis, os quais podem ser avaliados independentementecomo possíveis cenários do depósito mineral. Simulação condicional, ao contrário de técnicas de interpolação e estimativa, provê respostas para questões associadas a risco devido à variações nos teores do modelo geológico. Ao gerar múltiplos cenários tem-se acesso à probabilidade e conseqüentemente às variações de retorno financeiro e rotas de extração de minério de um projeto. o presente trabalho tem como objetivo a investigação de novas metodologias que contribuam para a construção de cenários de planejamento de lavra e avaliação do impacto provocado nestes pela incerteza fornecida a partir de modelos simulados. As respostas buscadas dentro da abordagem sugerida por esse trabalho, compreendem a definição de uma metodologia para controle e planejamento de lavra a médio e longo prazo por incorporação da flutuabilidade local associada ao minério, avaliando a sensibilidade do retorno financeiro e o traçado de lavra em relação ao método de geração do modelo geológico de teores. Para solucionar o problema em questão, sugere-se a geração de modelos estocásticos e a alimentação de múltiplos modelos selecionados por critérios considerados relevantes para a delimitação do espaço de incerteza. A aplicação de funções de transferência tais como mudança de suporte e seqüenciamento de produção sobre os modelos simulados é a chave para a obtenção de respostas a respeito do impacto sobre a lucratividade de um projeto. Ao alimentar à essas funções modelos equiprováveis que preservam as características estatísticas e a conectividade espacial dos dados amostrais mas que invariavelmente possuem diferentes distribuições de teores tem-se a dimensão em termos econômicos do risco associado à incerteza geológica. Foi confrontado o retorno financeiro produzido por modelos simulados e verificou-se para o caso especifico que os métodos de simulação geoestatistica empregados não produziram diferenças significativas quando comparados casos selecionados segundo os mesmos critérios. Porém, entre cenários extremos gerados pelo mesmo algoritmo de simulação foram verificadas desigualdades relevantes. Verificou-se também a transferência de minério entre diferentes classes de qualidade ao proceder-se com variações nas dimensões dos blocos de lavra.
Resumo:
Esta pesquisa tem como tema a avaliação de ferramentas de mineração de dados disponíveis no mercado, de acordo com um site de descoberta do conhecimento, chamado Kdnuggets (http://www.kdnuggets.com). A escolha deste tema justifica-se pelo fato de tratar-se de uma nova tecnologia de informação que vem disponibilizando diversas ferramentas com grandes promessas e altos investimentos, mas que, por outro lado, ainda não é amplamente utilizada pelos tomadores de decisão das organizações. Uma das promessas desta tecnologia é vasculhar grandes bases de dados em busca de informações relevantes e desconhecidas e que não poderiam ser obtidas através de sistemas chamados convencionais. Neste contexto, realizar uma avaliação de algumas destas ferramentas pode auxiliar a estes decisores quanto à veracidade daquilo que é prometido sem ter de investir antes de estar seguro do cumprimento de tais promessas. O foco da pesquisa é avaliar sistemas que permitem a realização da análise de cesta de supermercado (market basket analysis) utilizando bases de dados reais de uma rede de supermercados. Os seus objetivos são: avaliar ferramentas de mineração de dados como fonte de informações relevantes para a tomada de decisão; identificar, através da revisão de literatura, as promessas da tecnologia e verificar se tais promessas são cumpridas pelas ferramentas; identificar e caracterizar ferramentas de mineração de dados disponíveis no mercado e comparar os tipos de resultados gerados pelas diferentes ferramentas e relatar problemas encontrados durante a aplicação destas ferramentas. O desenvolvimento do trabalho segue o método estudo de caso múltiplo: os dados foram coletados a partir da aplicação das ferramentas às bases de dados e da entrevista com tomadores de decisão da empresa. Foram seguidos procedimentos já utilizados de avaliação de sistemas para a realização desta pesquisa. A partir da análise dos dados coletados, pôde-se conhecer alguns problemas apresentados pelas ferramentas e concluiu-se que as ferramentas, que foram utilizadas neste trabalho, não estão prontas para serem disponibilizadas no mercado.
Resumo:
O propósito central desta dissertação é verificar a relação existente entre orientação para o mercado, orientação para a aprendizagem e inovação. Embora exista na literatura de marketing um conjunto de trabalhos investigando os temas individual e associadamente, a bibliografia consultada revelou um único estudo envolvendo os três temas simultaneamente. No intuito de contribuir para a ampliação destas investigações, foi desenvolvida uma pesquisa, de caráter descritivo, junto aos cursos de graduação em Administração filiados a Associação Nacional dos Cursos de Graduação em Administração. A coleta de dados resultou em uma amostra de 123 cursos. Os resultados indicaram um grau moderado de orientação para o mercado, um grau entre moderado e forte de orientação para a aprendizagem, e um grau de inovação entre moderado e forte. Adicionalmente, observou-se uma relação mais forte entre orientação para o mercado e inovação do que entre orientação para a aprendizagem e inovação. Ao final da dissertação são discutidos os resultados da pesquisa empírica, identificadas as limitações do estudo e apresentadas sugestões para pesquisas futuras.
Resumo:
Este trabalho tem como objetivo analisar o mecanismo, que o estado do Rio Grande do Sul utilizou para atrair investimentos na indústria de transformação e aumentar sua participação no cenário regional e nacional, denominado Fundo de Operação Empresa – FUNDOPEM, incentivo financeiro, criado em 1972, e presente até os dias atuais. Antes de chegar a sua análise, foi feita uma abordagem histórica sobre as diferentes formas de intervenção que o governo estadual encontrou para movimentar a economia local, participando mais da estrutura industrial e facilitando mais sua inserção, na tentativa de reverter as desvantagens da sua posição periférica no cenário nacional. Através de alguns mecanismos utilizados pelo governo, de provedor a investidor, consegue-se visualizar a importância fundamental de sua função no objetivo de incrementar e compartilhar com o mercado privado a geração de renda e emprego para sua população. Após a descrição dos instrumentos utilizados pelo governo, partiu-se para a análise da primeira fase de atuação do FUNDOPEM, através de estudos legais e quantitativos, bem como as outras alternativas, de financiamentos, que as empresas industriais gaúchas encontraram para substituir os benefícios concedidos pelo Fundo durante seu período de desativação, no final dos anos 70. Devido à precariedade dos dados disponíveis, sua análise restringiu-se muito a documentos internos da Secretaria da Fazenda Complementar a esta descrição, foi feito, ainda, o estudo das mudanças ocorridas na legislação do Fundo na segunda fase de sua concessão, além da análise dos dados disponíveis, na tentativa de mostrar sua importância no fomento da participação industrial privada, analisando-se variáveis como o número de empregos gerados, valor do benefício fiscal concedido entre outros. Após o estudo feito, a conclusão à qual se chegou foi a de que o FUNDOPEM, somente a partir de 1997, alcançou um nível satisfatório de participação das empresas interessadas em adquirir o incentivo financeiro para o financiamento de seus projetos (cerca de 21,26%). Fato importante para esse salto, foram as mudanças ocorridas na sua legislação conforme a visão estratégica do governo Britto, que aos poucos foi adequando suas normas para beneficiar regiões carentes, incentivar setores e distribuir mais eqüitativamente os benefícios às empresas privadas através de critérios de pontuação que as mesmas deveriam preencher para que seus projetos pudessem ser aprovados. As exigências para a concessão do incentivo foram com o passar do tempo não um obstáculo, mas uma forma mais eficiente de escolher e contemplar empresas que realmente trariam vantagens sócio-econômicas para a população e para o Estado A criação do incentivo financeiro, FUNDOPEM, pode não ter sido um instrumento muito procurado nos anos 70, devido à crise mundial instalada, mas no final da década de 80 até os dias atuais, sua atuação para atrair e manter investimentos no estado do Rio Grande do Sul não foi desprezível, considerando o número superior a 600 projetos incentivados, sendo um dos condicionantes importantes para a instalação de empresas industriais. Ao mesmo tempo em que a iniciativa privada necessita de incentivos formulados pelo Estado, o Estado necessita que a iniciativa privada continue investindo, gerando renda e emprego, e repassando seus impostos aos cofres públicos, para que haja continuidade e incremento do crescimento e desenvolvimento econômico. Os investimentos fixos chegaram a deter R$ 9.342.918.384,00, os empregos projetados a 69.564, o ganho financeiro estadual estimado, isto é o ICMS líquido, a R$ 8.063.255.047,00 e o ICMS a recolher a R$ 22.000.461.741,00. Os programas que mais se destacaram foram o FUNDOPEM “normal”, o PROPLAST, o PROINCI, e o NOSSO EMPREGO, enquanto as empresas pertencentes as regiões Serrana, Vale do Rio dos Sinos, Vale do Rio Pardo, e Metropolitana tiveram o monopólio dos projetos protocolados.
Resumo:
O presente estudo aborda os temas: orientação para o mercado e qualidade de vida no trabalho. O propósito desta dissertação foi investigar a relação existente entre orientação para o mercado e qualidade de vida no trabalho nas empresas privadas industriais metalúrgicas, mecânicas e de material elétrico de Caxias do Sul. Com o intuito de aprofundar o tema, utilizou-se um método baseado em pesquisa descritiva e quantitativa, aplicando a escala MARKOR de Kohli, Jaworski & Kumar (1993) para determinar o grau de orientação para o mercado e a escala adotada por Fernandes (1996) para mensurar a qualidade de vida no trabalho. A coleta de dados resultou em uma amostra de 50 empresas e de 565 respondentes, sendo que 198 responderam sobre orientação para o mercado e 367 sobre qualidade de vida no trabalho. Os resultados obtidos indicaram que as empresas estudadas apresentam um nível médio de orientação para o mercado. Usando o método stepwise da análise de regressão múltipla, os resultados indicaram que a qualidade de vida no trabalho, nas suas dimensões de “Comunicação”, “Compensação”, “Moral”, “Participação” e “Relação Chefe- Funcionário” tem impacto sobre a orientação para o mercado. Como aspectos importantes derivados da análise do conjunto dos achados deste estudo há que se destacar a relevância do ferramental da qualidade de vida no trabalho como instrumento de apoio à gestão de recursos humanos, sobretudo, na medida em que potencializa canais de diálogo entre empresa e empregados, permitindo, por conseguinte, ações que propiciam uma correta orientação para o mercado.
Resumo:
O objetivo dedste trabalho é investigar o projeto de banco de dados aplicado a Sistemas de Informações Geográficas (SIG), mais especificamente, do mapeamento de esquemas conceituais, orientado a objetos, para esquemas lógicos implementados por softwares de SIG comerciais. A transformação dos esquemas conceituais para os lógicos é realizado através da idedntificação de um conjunto de regras genéricas de mapeamento de qualquer esquema concecitual de banco de dados geográficos, baseados em um framework conceitual, para os esquemas lógicos proprietários dos diversos SIG existentes. A concretização desta tarefa de transformação é possível mediante a proposta de um ambiente de suporte. Esse ambiente fornece uma estrutura específica, constituída por uma linguagem formal, definida pelo padrão SAIF (Saptial Archive and Interchange Format), pela ferramenta FME (feature Manipulation Engine) e pela ferramenta CASE Rational Rose v.2000e. O conjunto de regras genéricas elaborado neste trabalho, é composto por dois subconjuntos. O primeiro define regras de correspondência, determinando uma relação entre os conceitos da realidade percebidos pelo Framework conceitual e a linguagem formal apresentada pelo padrão SAIF. O segundo subconjunto define regras de transformação, onde busca-se mapear os conceitos do paradigma da orientação a objetos par aos conceitos relacionais utilizazdos pela maioria dos softwares de SIG, disponíveis no mercado. Com a finalidade de validar a aplicabilidadee deste conjunto de regras de mapeamento e do ambiente de suporte proposto, este trabalho inclui também a implementação de um protótipo, o qual executa a automatização da trasnformação dos esquemas conceituais para os esquemas lógicos de banco de dados geográfico.
Resumo:
(João Quevedo - Estudo do Processamento das Memórias de Curta e Longa Duração) - Este trabalho apresenta a compilação dos 4 principais experimentos carreados ao longo de 1999-2002: 3 deles envolvem o modelo animal e um quarto utilizase de voluntários humanos. Entretanto, o uso desses diferentes paradigmas não prejudica a unidade do conjunto. O Capítulo 1 apresenta sucintamente o marco teórico dos 4 trabalhos. Inicialmente são discutidos aspectos modulatórios da consolidação da memória. Após, alguns elementos da bioquímica da consolidação da memória são apresentados no intuito de permitir establecer um entendimento das vias da PKA e da MAPK e suas correlações com a via final comum – a síntese protéica. Adicionalmente, a dissociação STM e LTM é discutida a partir do referencial farmacológico. Uma última unidade apresenta conceitos primitivos do papel da amígdala na modulação da memória e das evidências da implicação das emoções, via amígdala, na modulação da memória em humanos. Os experimentos utilizando a esquiva inibitória como paradigma e o rato como sujeito ocupam os Capítulos 2, 3 e 4. No Capítulo 2 é apresentado um corpo de resultados que permite observar uma dissecção farmacológica da STM e LTM. Os dados demonstram um envolvimento de fenômenos dependentes de PKA em ambas STM e LTM, dependentes de MAPK apenas na STM, e dependentes de síntese protéica apenas na LTM. O Capítulo 3 apresenta um trabalho realizado em colaboração com o Prof. Steven P. R. Rose (Open University, UK), que envolve a determinação dos momentos sensíveis à inibição da síntese protéica na consolidação da LTM. Foram observados dois momentos: um inicial, junto ao treino, e um tardio apos 3h. Além disso, foi possível demonstrar que um treino prévio de baixa intensidade, mas não a pré-exposição ao aparato, pode impedir o estabelecimento de amnésia induzida pelo bloqueio da síntese protéica. O Capítulo 4 estende os achados com anisomicina observados no Capítulo 3, estudando também o inibidor da PKA, Rp-cAMPs, e o inibidor da MAPKK, PD 098059. Os dados obtidos confirmam também para essas cascatas a indução em um treino prévio de baixa intensidade de algum fenômeno celular de longa duração que torna o aprendizado de um segundo treino independente de PKA, MAPK ou síntese protéica. O estudo da dissociação da STM e LTM foi ampliado, agora no modelo humano, no experimento descrito no Capítulo 6. Nesse experimento, observamos uma clara influência do conteúdo emocional na LTM, mas a ausência desse efeito na STM. A discussão geral (Capítulo 7) busca integrar esses achados descritos nos capítulos anteriores dentro da nova perspectiva molecular da neurobiologia da memória. Além disso, abre discussão acerca de possíveis novas possibilidades de pesquisa.
Resumo:
O presente estudo investiga como os gerentes de supermercados no Norte do Estado do Rio Grande do Sul usam as informações de mercado para apoiar suas decisões de marketing. Os dados foram coletados a partir de entrevistas pessoais através de um questionário aplicado em uma amostra de quarenta gerentes correspondendo a 71,4% da população estudada. Este estudo oferece uma estrutura de variáveis que contribuem para a análise dos processos de coleta, utilização e difusão das informações de mercado. Verifica também a percepção do decisor quanto à importância das informações de mercado e ao uso dos instrumentos para sua coleta. Geralmente, os gerentes coletam e utilizam muitas informações com o objetivo de apoiar suas decisões diárias. Os resultados revelam que eles coletam com bastante freqüência informações a partir de fontes externas, tais como comentários informais, conversas informais, jornais, revistas especializadas, telejornais e consumidores. E, ainda, utilizam bancos de dados internos e funcionários como as principais fontes internas de informação. Todavia, muitas fontes relevantes não são utilizadas, caracterizando um processo em que os gerentes coletam poucas informações de mercado e, quando o fazem, tendem a utilizar fontes informais de acesso. A utilização das informações é um dos processos de maior atenção dos gerentes, seja do uso interno ou externo. As informações externas mais utilizadas referem-se aos concorrentes e aos setores econômico, político, tecnológico e sociocultural. Por outro lado, percebe-se a baixa utilização de informações dos consumidores, revelando uma posição despreocupante em relação às tendências de customização de clientes. Por sua vez, as informações internas possuem uma elevada freqüência de uso, uma vez que são de fácil acesso e disponibilidade. Um aspecto evidenciado é que os gerentes utilizam muita informação conceitual e muito pouca informação instrumental, o que revela um elevado uso indireto das mesmas em ações relacionadas à estratégia e, em contrapartida, muito poucas são utilizadas diretamente para decisões de maior escopo. Os gerentes disseminam muito pouco as informações de mercado, tanto interna quanto externamente, embora suas percepções quanto à importância e necessidade dessas informações sejam elevadas. Evidencia-se, portanto, que os gerentes usam informações de maneira empírica, dispersa e assistemática, sem instrumentos formais de coleta, fundamentadas em relações informais, pessoais e impessoais.