1000 resultados para Computação
Resumo:
Este trabalho tem por objetivo analisar como as empresas aéreas estão fazendo uso da Internet e do Comércio Eletrônico considerando seus websites como possíveis canais de divulgação, transação e relacionamento com o cliente. Neste estudo serão analisadas as principais características do setor de transportes aéreos e de Comércio Eletrônico, bem como seu impacto no setor. Através do trabalho será possível vericiar como as empresas aéreas estão utilizando seus websites e como elas analisam a posição dos intermediários no processo de transação de passagens aéreas, verificando a situação atual, vantagens e desvantagens da adoção do ambiente virtual como um novo canal de valor.
Resumo:
Este trabalho tem como objetivo criar um material de referência sobre a gestão de segurança em Internet Banking, oferecendo ao administrador uma visão gerencial, mesmo que não tenha conhecimento prévio de tecnologia. A partir do estudo de três casos de bancos, com atuação no Brasil (dois privados, um nacional e um estrangeiro, e uma terceira instituição financeira pública), levantou-se que a Internet foi um evento que motivou a reestruturação da gestão de segurança eletrônica, levando em consideração os novos riscos e oportunidades de atuar em rede pública. Os três bancos possuem medidas de gestão de segurança que atendem às três camadas: física, lógica e humana, e aos 10 domínios da gestão de segurança eletrônica, com foco especial no canal Internet Banking.
Resumo:
Este trabalho analisa a exclusão digital e, subsidiariamente, alguns dos efeitos desta exclusão nas organizações sem fins lucrativos da cidade de São Paulo. Inicialmente, foi pesquisado a exclusão social, para de um lado compreender o contexto em que se insere a exclusão digital e, por outro, analisar algumas de suas semelhanças e distinções. Posteriormente, foram analisados artigos, dissertações e documentos em temas e assuntos relacionados à exclusão digital. Em seguida, para ampliar o horizonte de entendimento sobre a exclusão digital, sistematizou-se algumas das principais idéias e reflexões de quatro autores: Manuel Castells, Pierre Lévy, Jürgen Habermans e Marshal McLuhan. Finalmente, foi analisado a exclusão digital nas organizações sem fins lucrativos da cidade de São Paulo. No início da pesquisa de campo, foram coletados os dados das organizações sem fins lucrativos da cidade de São Paulo a partir de oito diferentes bancos de dados: PMSP, RITS, ABONG, CVSP, Tertio Millennio, www.meioambiente.org.br, www.filantropia.org, www.terceirosetor.org.br. Para atingir os objetivos propostos, efetuou-se uma pesquisa exploratória, de cunho qualitativo, que contou com uma revisão teórica, entrevistas não-estruturadas com especialistas e, finalmente, questionários foram aplicados em um conjunto de setenta e seis organizações sem fins lucrativos da cidade de São Paulo. A partir das análises realizadas, chegou-se aos seguintes resultados: a exclusão digital não é, necessariamente, um problema e que não há clareza suficiente sobre se a exclusão digital irá aprofundar a exclusão social. No que se refere às organizações sem fins lucrativos, destacam-se as limitações de recursos e parcerias entre aquelas que vivenciam a exclusão digital.
Resumo:
Procura discutir os modelos de administração pública burocrático e gerencial, as compras governamentais e o governo eletrônico no Brasil e no exterior, utilizando-se da BEC/SP como estudo de caso para exemplificar toda a discussão apresentada
Resumo:
O objetivo principal deste trabalho é estudar a influência do governo eletrônico na democracia. Por ser um tema que permite diversas abordagens, escolheu-se focar o estudo na avaliação da transparência administrativa e disponibilidade de informações públicas em websites governamentais. A análise empírica avaliou a prestação de contas públicas de todas as capitais estaduais brasileiras, em cumprimento às leis federais de Contas Públicas e de Responsabilidade Fiscal. Para isso, criou-se um roteiro de avaliação de websites governamentais que permitisse a avaliação dos principais indicadores relacionados à transparência administrativa. Os resultados obtidos da pesquisa apresentam evidências dos principais condicionantes da transparência, permitindo relacioná-los com as indicações da literatura sobre o tema. Como resultado final, pretende-se contribuir para a maior compreensão de um dos componentes fundamentais da democracia representativa: a transparência dos atos públicos, colaborando para ampliar o conhecimento sobre os possíveis impactos do governo eletrônico na sociedade moderna.
Resumo:
Dentro do contexto de modernização da administração pública brasileira em meados da década de 90, um novo formato de compras por meio de leilão reverso desenvolveu-se no estado de São Paulo. Novas tecologias, a internet, e recem implentadas ferramentas gerenciais possibilitaram a criação da Bolsa Eletrônica de Compras (BEC/SP). Os tradicionais rocessos licitatórios foram transformadores que competem simultaneamente, sem limitações geográficas pela venda ao menor preço. A luz da teoria dos leilões, o presente trabalho analisa os novos modelo e processos de compras recém implementados sob a forma de licitações eletrônicas, considerando como caso a BEC/SP. Através das análises, observa qual o impacto financeiro da Bolsa nas compras do Governo Estadual, medindo até que ponto esta nova ferramenta de compras pode reduzir os preços de materiais comprados tanto na administração pública como também privada. Além disto, outros pontos como o volume atualmente negociado na BEC/SP pelo Estado, os tipos de materiais que apresentam maiores reduções nos preços são também estudados. Para os itens de maior relevância nas compras paulistas, alguns controles são realizados na tentativa de isolar o efeito bolsa de outros efeitos na redução de preços como localização da compra ou quantidade comprada. O trabalho pretende levantar, por meio do estudo de caso do Estado de São Paulo, as principais questões na implementação de um sistema de compras semelhantes e ressaltar a importância de uma política de compras estruturada e eficiente na administração dos já escassos recursos públicos
Resumo:
Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.
Resumo:
A evolução da Computação Baseada em Clusters, impulsionada pelo avanço tecnológico e pelo custo relativamente baixo do hardware de PCs, tem levado ao surgimento de máquinas paralelas de porte cada vez maior, chegando à ordem das centenas e mesmo milhares de nós de processamento. Um dos principais problemas na implantação de clusters desse porte é o gerenciamento de E/S, pois soluções centralizadas de armazenamento de arquivos, como o NFS, rapidamente se tornam o gargalo dessa parte do sistema. Ao longo dos últimos anos, diversas soluções para esse problema têm sido propostas, tanto pela utilização de tecnologias especializadas de armazenamento e comunicação, como RAID e fibra ótica, como pela distribuição das funcionalidades do servidor de arquivos entre várias máquinas, objetivando a paralelização de suas operações. Seguindo essa última linha, o projeto NFSP (NFS Parallèle) é uma proposta de sistema de arquivos distribuído que estende o NFS padrão de forma a aumentar o desempenho das operações de leitura de dados pela distribuição do serviço em vários nós do cluster. Com essa abordagem, o NFSP objetiva aliar desempenho e escalabilidade aos benefícios do NFS, como a estabilidade de sua implementação e familiaridade de usuários e administradores com sua semântica de uso e seus procedimentos de configuração e gerenciamento. A proposta aqui apresentada, chamada de dNFSP, é uma extensão ao NFSP com o objetivo principal de proporcionar melhor desempenho a aplicações que explorem tanto a leitura como a escrita de dados, uma vez que essa última característica não é contemplada pelo modelo original A base para o funcionamento do sistema é um modelo de gerenciamento distribuído de meta-dados, que permite melhor escalabilidade e reduz o custo computacional sobre o meta-servidor original do NFSP, e também um mecanismo relaxado de manutenção de coerência baseado em LRC (Lazy Release Consistency), o qual permite a distribuição do serviço sem acarretar em operações onerosas de sincronização de dados. Um protótipo do modelo dNFSP foi implementado e avaliado com uma série de testes, benchmarks e aplicações. Os resultados obtidos comprovam que o modelo pode ser aplicado como sistema de arquivos para um cluster, efetivamente proporcionando melhor desempenho às aplicações e ao mesmo tempo mantendo um elevado nível de compatibilidade com as ferramentas e procedimentos habituais de administração de um cluster, em especial o uso de clientes NFS padrões disponíveis em praticamente todos os sistemas operacionais da atualidade.
Resumo:
A Inteligência Artificial é uma área da computação onde se está constantemente desenvolvendo pesquisas em software educacionais, principalmente os Sistemas Tutores Inteligentes (STI). Esses sistemas têm a capacidade de se adaptarem às particularidades de cada aluno, proporcionando assim, ambientes que facilitam a aprendizagem do usuário. Recentemente foi incorporada a tecnologia de agentes na modelagem do STI e nos ambientes educacionais na Internet. Estes agentes são denominados pedagógicos quando estão ligados a um ambiente onde existe uma sociedade de agentes que compõem um sistema de ensino-aprendizagem. Este texto apresenta um modelo de adaptação para ambientes genéricos de ensino, composto por agentes pedagógicos. A proposta é baseada em estudos relacionados com sistemas hipermídia adaptativos, sistemas tutores inteligentes, sistemas multiagentes e agentes pedagógicos. Inicialmente, o texto descreve o modelo. Logo após, é apresentada a implementação dos agentes os quais tem como tarefa prover a adaptação do ensino, sendo responsáveis em fornecer o caminho mais efetivo para a aprendizagem do aluno. Os agentes do modelo são denominados Agente Tutor, Agente Perfil e Agente de Comunicação. A realização da adaptação da instrução às características individuais do aprendiz implica o sistema conhecer: os padrões cognitivos de aprendizagem do aluno, traduzidos como estilos de aprendizagem e as suas implicações pedagógicas; e a modelagem das características do aprendiz: nível de conhecimento, metas, experiência e preferências do aprendiz. Finalmente, o texto descreve um estudo de caso, onde o modelo proposto foi integrado num ambiente de aprendizagem, e validado numa disciplina virtual a fim de avaliação de seus objetivos.
Resumo:
O objetivo deste trabalho é testar a aplicação de um modelo gráfico probabilístico, denominado genericamente de Redes Bayesianas, para desenvolver modelos computacionais que possam ser utilizados para auxiliar a compreensão de problemas e/ou na previsão de variáveis de natureza econômica. Com este propósito, escolheu-se um problema amplamente abordado na literatura e comparou-se os resultados teóricos e experimentais já consolidados com os obtidos utilizando a técnica proposta. Para tanto,foi construído um modelo para a classificação da tendência do "risco país" para o Brasil a partir de uma base de dados composta por variáveis macroeconômicas e financeiras. Como medida do risco adotou-se o EMBI+ (Emerging Markets Bond Index Plus), por ser um indicador amplamente utilizado pelo mercado.
Resumo:
A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.
Resumo:
A gestão e a mensuração do risco operacional é uma preocupação crescente da comunidade bancária, de modo que a escolha adequada do modelo de alocação de capital para risco operacional pode tornar-se um diferencial competitivo. Este trabalho apresenta as vantagens da adoção de modelos causais para a gestão e mensuração do risco operacional e, ao investigar a aplicação de Redes Neurais Artificiais para tal propósito, comprova que o modelo causal chega a valores de capital mais alinhados à exposição ao risco da instituição financeira. Além disso, há a vantagem de que, quanto mais sensível a risco a metodologia de cálculo de capital for, maior será o incentivo para uma gestão apropriada dos riscos no dia-a-dia da instituição financeira, o que não apenas reduz sua necessidade de alocação de capital, quanto diminui suas perdas esperadas. Os resultados, portanto, são positivos e motivam estudos futuros sobre o tema.
Resumo:
Estudos anteriores mostraram que a técnica de redes neurais tem sido mais bem sucedida que os modelos tradicionais em vários assuntos relacionados ao mercado de debêntures, tais como modelar a probabilidade de default e em explicar os ratings de agências classificadoras de risco, como Standard & Poors e Moodys. O objetivo deste trabalho é testar a técnica de redes neurais para precificar debêntures no Brasil e comparar os resultados obtidos com regressões lineares. Para isso, utilizaram-se como variáveis explicativas dados contábeis, características específicas das emissões, tais como prazo para vencimento e cláusulas de recompra antecipada. Em relação às variáveis dependentes, optou-se por utilizar as taxas divulgadas diariamente pela ANDIMA como valor de mercado para as debêntures. As variáveis acima foram testadas em diversos modelos pelo método dos mínimos quadrados ordinários e o modelo que apresentou o melhor resultado foi testado em redes neurais com duas camadas intermediárias. Os resultados obtidos com redes neurais com seis e oito neurônios apresentaram resultados superiores aos modelos estimados por mínimos quadrados ordinários tanto na fase de treinamento como na fase de testes. No entanto, ainda há bastante espaço para melhorias nos modelos dado que o tamanho da base de dados disponível para este tipo de testes no Brasil ainda não é a ideal e as taxas divulgadas pela ANDIMA são médias de um grupo pequeno de instituições e não necessariamente refletem o valor de mercado de uma debênture.
Resumo:
Este trabalho tem por motivação evidenciar a eficiência de redes neurais na classificação de rentabilidade futura de empresas, e desta forma, prover suporte para o desenvolvimento de sistemas de apoio a tomada de decisão de investimentos. Para serem comparados com o modelo de redes neurais, foram escolhidos o modelo clássico de regressão linear múltipla, como referência mínima, e o de regressão logística ordenada, como marca comparativa de desempenho (benchmark). Neste texto, extraímos dados financeiros e contábeis das 1000 melhores empresas listadas, anualmente, entre 1996 e 2006, na publicação Melhores e Maiores – Exame (Editora Abril). Os três modelos foram construídos tendo como base as informações das empresas entre 1996 e 2005. Dadas as informações de 2005 para estimar a classificação das empresas em 2006, os resultados dos três modelos foram comparados com as classificações observadas em 2006, e o modelo de redes neurais gerou o melhor resultado.
Análise do setor da agências de internet no Brasil : uma aplicação de simulação dinâmica de sistemas
Resumo:
Esta dissertação tem por objetivo analisar a participação de mercado dos diferentes grupos estratégicos que compõem o setor de agências de internet no Brasil, bem como as mudanças decorrentes de alterações nas variáveis críticas de concorrência, tais como preço, investimento em propaganda, investimento em tecnologia e disponibilidade de mão-de-obra.