811 resultados para Bancos - Processamento de dados - Equipamento e acessórios - Administração


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The growing demand for quality at competitive prices and fast production process put to the test function in the industrial Maintenance. The need for equipment with high availability to fit this fierce competitiveness makes maintenance becomes essentially reliable. Despite this current context, many companies still have an old view of maintenance, focused only on corrective services, and proposals for change are often neglected due to the sense of urgency day to day. Thus, this study aims to demonstrate through theoretical applicability of simple tool, but of great value in increasing reliability within the maintenance sector of an industry, applying the concepts of Reliability Centered Maintenance – RCM and Analysis tool Failure Modes and Effects – FMEA in equipment of a chemical company directly involved in the manufacturing process of the brake fluid, which this product is used in vehicles around the country. That way, you can identify the types, occurrence and criticality of each failure and evaluate assertively decision making for each device, avoiding unnecessary downtime and potential failures of the same

Relevância:

100.00% 100.00%

Publicador:

Resumo:

With the increase of stakeholders and consequently increase of amount of nancial transaction the study of news investment strategies in the stock market with data mining techniques has been the target of important researches. It allows that great historical data base to be processed and analysed looking for pattern that can be used to take a decision in investments. With the idea of getting pro t more than the real indexs' gain, we propose a strategy method of transactions using rules built by algorithm classi cation. For that, diary historical data of Ibovespa index and Petrobras stocks are organized and processed to nding the most important attribute that act decisively when taking a investment decision.To test the accuracy of proposed rules, a non real portfolio management is created, showing the decisions' performance over the real index and stocks' performance. Following the proposed rules, the results show that the strategy of investment give me back a high return that Stock market's return. The exclusive characteristics of algorithms maximize the gain inside the analysed time allowing to determine the techniques' return and the number of the days necessary to double the initial investment. The best classi er applied on the time series and its use on the propose investments strategy will demand 104 days to double the initial capital

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This work aims viewing weather information, by building isosurfaces enabling enjoy the advantages of three-dimensional geometric models, to communicate the meaning of the data used in a clear and efficient way. The evolving technology of data processing makes possible the interpretation of masses of data increasing, through robust algorithms. In meteorology, in particular, we can benefit from this fact, due to the large amount of data required for analysis and statistics. The manipulation of data, by users from other areas, is facilitated by the choice of algorithm and the tools involved in this work. The project was further developed into distinct modules, increasing their flexibility and reusability for future studies

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pós-graduação em Ciência da Computação - IBILCE

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The collection of prices for basic goods supply is very important for the population, based on the collection and processing of these data the CLI (Cost Living Index) is calculated among others, helping consumers to shop more rationally and with a clearer view of each product impact of each product on their household budget, not only food, but also cleaning products and personal hygiene ones. Nowadays, the project of collection of prices for basic goods supply is conducted weekly in Botucatu - SP through a spreadsheet. The aim of this work was to develop a software which utilized mobile devices in the data collection and storage phase, concerning the basic goods supply in Botucatu -SP. This was created in order to eliminate the need of taking notes in paper spreadsheets, increasing efficiency and accelerating the data processing. This work utilized the world of mobile technology and development tools, through the platform".NET" - Compact Framework and programming language Visual Basic".NET" was used in the handheld phase, enabling to develop a system using techniques of object oriented programming, with higher speed and reliability in the codes writing. A HP Pavilion dv3 personal computer and an Eten glofish x500+ handheld computer were used. At the end of the software development, collection, data storing and processing in a report, the phase of in loco paper spreadsheets were eliminated and it was possible to verify that the whole process was faster, more consistent, safer, more efficient and the data were more available.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

It is considered that the Strategic Alignment IT is the first step within the IT Governance process for any institution. Taking as initial point the recognition that the governance corporate has an overall view of the organizations, the IT Governance takes place as a sub-set responsible for the implementation of the organization strategies in what concerns the provision of the necessary tools for the achievement of the goals set in the Institutional Development Plan. In order to do so, COBIT specifies that such Governance shall be built on the following principles: Strategic Alignment, Value Delivery, Risk Management, Performance Measurement. This paper aims at the Strategic Alignment, considered by the authors as the foundation for the development of the entire IT Governance core. By deepening the technical knowledge of the management system development, UFRN has made a decisive step towards the technical empowerment needed to the “Value Delivery”, yet, by perusing the primarily set processes to the “Strategic Alignment”, gaps that limited the IT strategic view in the implementation of the organizational goals were found. In the qualitative study that used documentary research with content analysis and interviews with the strategic and tactical managers, the view on the role of SINFO – Superintendência de Informática was mapped. The documentary research was done on public documents present on the institutional site and on TCU – Tribunal de Contas da União – documents that map the IT Governance profiles on the federal public service as a whole. As a means to obtain the documentary research results equalization, questionnaires/interviews and iGovTI indexes, quantitative tools to the standardization of the results were used, always bearing in mind the usage of the same scale elements present in the TCU analysis. This being said, similarly to what the TCU study through the IGovTI index provides, this paper advocates a particular index to the study area – SA (Strategic Alignment), calculated from the representative variables of the COBIT 4.1 domains and having the representative variables of the Strategic Alignment primary process as components. As a result, an intermediate index among the values in two adjacent surveys done by TCU in the years of 2010 and 2012 was found, which reflects the attitude and view of managers towards the IT governance: still linked to Data Processing in which a department performs its tasks according to the demand of the various departments or sectors, although there is a commission that discusses the issues related to infrastructure acquisition and systems development. With an Operational view rather than Strategic/Managerial and low attachment to the tools consecrated by the market, several processes are not contemplated in the framework COBIT defined set; this is mainly due to the inexistence of a formal strategic plan for IT; hence, the partial congruency between the organization goals and the IT goals.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oil spills in marine environments represent immediate environmental impacts of large magnitude. For that reason the Environmental Sensitivity to Oil Maps constitute a major instrument for planning actions of containment and cleanup. For both the Environmental Sensitivity Maps always need to be updated, to have an appropriate scale and to represent accurately the coastal areas. In this context, this thesis presents a methodology for collecting and processing remote sensing data for the purpose of updating the territorial basis of thematic maps of Environmental Sensitivity to Oil. To ensure greater applicability of the methodology, sensors with complementary characteristics, which provide their data at a low financial cost, were selected and tested. To test the methodology, an area located on the northern coast of the Northeast of Brazil was chosen. The results showed that the products of ASTER data and image hybrid sensor PALSAR + CCD and HRC + CCD, have a great potential to be used as a source of cartographic information on projects that seek to update the Environmental Sensitivity Maps of Oil

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O Turismo e a Fotografia têm uma relação muito estreita, sendo, para muitos turistas, a prática fotográfica um elemento essencial na experiência turística. Esta relação é, desde há muito, explorada pelas Organizações de Gestão do Destino (OGD) na vertente de promoção do destino e da sua imagem projectada, uma vez que as fotografias são uma forma de materializar uma ideia/imagem em relação a um determinado local, de aproximar o turista da experiência real, motivando-o à compra. No entanto é menos comum que as organizações do destino partam da fotografia para compreender o turista. Actualmente e com a rápida e abrangente disseminação de informação típica da era digital, os utilizadores/consumidores/visitantes têm um papel tão ou mais importante que as OGD’s na construção da imagem de um destino. É fundamental que as organizações não só percebam qual o tipo de informação que está a ser gerada entre os utilizadores, como que monitorizem preferências que surgem no seio das redes sociais, podendo deste modo antever tendências e, consequentemente criar novas estratégias, não só em termos de marketing e promoção, como de planeamento de negócio, especialmente no que respeita ao posicionamento e diferenciação perante a concorrência. Para ser possível monitorizar esta informação é necessário medir os seus indicadores, sendo importante criar estratégias e ferramentas de recolha. O que se pretende, a partir deste estudo, é defender a viabilidade da fotografia digital enquanto objecto de estudo, uma vez que é uma aliada na compreensão da imagem projectada pela OGD’s, mas também, e a cada vez mais, da imagem percebida e projectada pelos visitantes, a partir do conteúdo gerado pelos turistas. Tomamos como caso de estudo a cidade de Lisboa, a qual conhece nos últimos anos um grande impulso na sua atractividade turística. Tendo como base estudos similares relacionados com outros destinos construímos um sistema metodológico apoiado em estudos análogos, e no desenvolvimento de software de recolha de dados a partir de uma rede social de partilha de imagens – o Instagram. Foi possível recolher uma amostragem de imagens de Lisboa criadas por turistas, bem como o lote de imagens usadas por uma OGD para promoção de Lisboa. Após o nosso processamento de dados, foi possível efectuar uma análise de conteúdo dessas imagens chegando ao conjunto de atributos que caracteriza o seu conteúdo. Esse conteúdo foi então comparado, de modo a concluirmos sobre a semelhança ou disparidade entre as imagens usadas para promover Lisboa e aquelas que parecem transmitir aquilo que em Lisboa realmente impressiona. As principais conclusões apontam para uma concordância entre os atributos mais frequentes das fotografias tiradas por OGD e Turistas. Porém existe discordância entre os atributos menos importantes, isto é, menos presentes. A metodologia utilizada abre novos caminhos na utilização de fotos de redes sociais para estudo do comportamento do turista e da imagem do destino.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Comunica que no resultado da prova de Língua Portuguesa e Legislação do concurso público para Agente de Segurança Legislativa, Edital nº 7/1992, por falha no processamento de dados, foram omitidos alguns candidatos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Compilação, produção e impressão dos documentos referentes ao processo de elaboração da nova Lei Régia respectivamente pelo Centro de Informação e Processamento de Dados do Senado Federal(Prodasen) e pela Gráfica do Senado Federal. Distribuição da publicação aos membros da Assembleia Nacional Constituinte. Divulgação dos trabalhos constituintes à sociedade brasileira por meio do Jornal da Constituinte, da Voz da Constituinte e do Diário da Constituinte.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sistemas Multiagentes estão recebendo cada vez mais a atenção de pesquisadores e desenvolvedores de jogos virtuais. O uso de agentes permite controlar o desempenho do usuário, adaptando a interface e alterando automaticamente o nível de dificuldade das tarefas. Este trabalho descreve uma estratégia de integração de sistemas multiagentes e ambientes virtuais tridimensionais e exemplifica a viabilidade dessa integração através do desenvolvimento de um jogo com características de Serious game. Este jogo visa estimular as funções cognitivas, tais como atenção e memória e é voltado para pessoas portadoras de diferentes distúrbios neuropsiquiátricos. A construção do jogo foi apoiada em um processo de desenvolvimento composto por várias etapas: estudos teóricos sobre as áreas envolvidas, estudo de tecnologias capazes de apoiar essa integração, levantamento de requisitos com especialistas, implementação e avaliação com especialistas. O produto final foi avaliado por especialistas da área médica, que consideraram os resultados como positivos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A segmentação dos nomes nas suas partes constitutivas é uma etapa fundamental no processo de integração de bases de dados por meio das técnicas de vinculação de registros. Esta separação dos nomes pode ser realizada de diferentes maneiras. Este estudo teve como objetivo avaliar a utilização do Modelo Escondido de Markov (HMM) na segmentação nomes e endereços de pessoas e a eficiência desta segmentação no processo de vinculação de registros. Foram utilizadas as bases do Sistema de Informações sobre Mortalidade (SIM) e do Subsistema de Informação de Procedimentos de Alta Complexidade (APAC) do estado do Rio de Janeiro no período entre 1999 a 2004. Uma metodologia foi proposta para a segmentação de nome e endereço sendo composta por oito fases, utilizando rotinas implementadas em PL/SQL e a biblioteca JAHMM, implementação na linguagem Java de algoritmos de HMM. Uma amostra aleatória de 100 registros de cada base foi utilizada para verificar a correção do processo de segmentação por meio do modelo HMM.Para verificar o efeito da segmentação do nome por meio do HMM, três processos de vinculação foram aplicados sobre uma amostra das duas bases citadas acima, cada um deles utilizando diferentes estratégias de segmentação, a saber: 1) divisão dos nomes pela primeira parte, última parte e iniciais do nome do meio; 2) divisão do nome em cinco partes; (3) segmentação segundo o HMM. A aplicação do modelo HMM como mecanismo de segmentação obteve boa concordância quando comparado com o observador humano. As diferentes estratégias de segmentação geraram resultados bastante similares na vinculação de registros, tendo a estratégia 1 obtido um desempenho pouco melhor que as demais. Este estudo sugere que a segmentação de nomes brasileiros por meio do modelo escondido de Markov não é mais eficaz do que métodos tradicionais de segmentação.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O projeto Agência de Informação desenvolvido pela Embrapa Informação Agropecuária utiliza a tecnologia XML na troca de dados entre alguns de seus módulos e adota a ferramenta Digester (Apache Software Foundation, 2004d) para processamento destes dados. Esta ferramenta apresentou algumas limitações quando utilizada no tratamento de dados em formato XML, estruturados de acordo com as necessidades do Projeto Agência. Este documento descreve as adaptações implementadas na ferramenta Digester permitindo contornar estas limitações.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O metano é um gás de estufa potente e uma importante fonte de energia. A importância global e impacto em zonas costeiras de acumulações e escape de gás metano são ainda pouco conhecidas. Esta tese investiga acumulações e escape de gás em canais de maré da Ria de Aveiro com dados de cinco campanhas de reflexão sísmica de alta resolução realizadas em 1986, 1999, 2002 e 2003. Estas incluem três campanhas de Chirp (RIAV99, RIAV02 e RIAV02A) e duas campanhas de Boomer (VOUGA86 e RIAV03). O processamento dos dados de navegação incluíram filtros de erros, correcções de sincronização de relógios de sistemas de aquisição de dados, ajuste de “layback” e estimativa da posição de “midpoint”. O processamento do sinal sísmico consistiu na correcção das amplitudes, remoção de ruído do tipo “burst”, correcções estáticas, correcção do “normal move-out”, filtragem passabanda, desconvolução da assinatura e migração Stolt F-K. A análise da regularidade do trajecto de navegação, dos desfasamentos entre horizontes e dos modelos de superfícies foi utilizada para controlo de qualidade, e permitiu a revisão e melhoria dos parâmetros de processamento. A heterogeneidade da cobertura sísmica, da qualidade do sinal, da penetração e da resolução, no seu conjunto constrangeram o uso dos dados a interpretações detalhadas, mas locais, de objectos geológicos da Ria. É apresentado um procedimento para determinar a escolha de escalas adequadas para modelar os objectos geológicos, baseado na resolução sísmica, erros de posicionamento conhecidos e desfasamentos médios entre horizontes. As evidências de acumulação e escape de gás na Ria de Aveiro incluem turbidez acústica, reflexões reforçadas, cortinas acústicas, domas, “pockmarks” e alinhamentos de “pockmarks” enterradas, horizontes perturbados e plumas acústicas na coluna de água (flares). A estratigrafia e a estrutura geológica controlam a distribuição e extensão das acumulações e escape de gás. Ainda assim, nestes sistemas de baixa profundidade de água, as variações da altura de maré têm um impacto significativo na detecção de gás com métodos acústicos, através de alterações nas amplitudes originais de reflexões reforçadas, turbidez acústica e branqueamento acústico em zonas com gás. Os padrões encontrados confirmam que o escape de bolhas de gás é desencadeado pela descida da maré. Há acumulações de gás em sedimentos Holocénicos e no substrato de argilas e calcários do Mesozóico. Evidências directas de escape de gás em sondagens em zonas vizinhas, mostraram gás essencialmente biogénico. A maioria do gás na área deve ter sido gerado em sedimentos lagunares Holocénicos. No entanto, a localização e geometria de estruturas de escape de fluidos em alguns canais de maré, seguem o padrão de fracturas do substrato Mesozóico, indicando uma possível fonte mais profunda de gás e que estas fracturas funcionam como condutas preferenciais de migração dos fluidos e exercem um controlo estrutural na ocorrência de gás na Ria.