953 resultados para open data capabilities
Resumo:
A description of a data item's provenance can be provided in dierent forms, and which form is best depends on the intended use of that description. Because of this, dierent communities have made quite distinct underlying assumptions in their models for electronically representing provenance. Approaches deriving from the library and archiving communities emphasise agreed vocabulary by which resources can be described and, in particular, assert their attribution (who created the resource, who modied it, where it was stored etc.) The primary purpose here is to provide intuitive metadata by which users can search for and index resources. In comparison, models for representing the results of scientific workflows have been developed with the assumption that each event or piece of intermediary data in a process' execution can and should be documented, to give a full account of the experiment undertaken. These occurrences are connected together by stating where one derived from, triggered, or otherwise caused another, and so form a causal graph. Mapping between the two approaches would be benecial in integrating systems and exploiting the strengths of each. In this paper, we specify such a mapping between Dublin Core and the Open Provenance Model. We further explain the technical issues to overcome and the rationale behind the approach, to allow the same method to apply in mapping similar schemes.
Resumo:
HydroShare is an online, collaborative system being developed for open sharing of hydrologic data and models. The goal of HydroShare is to enable scientists to easily discover and access hydrologic data and models, retrieve them to their desktop or perform analyses in a distributed computing environment that may include grid, cloud or high performance computing model instances as necessary. Scientists may also publish outcomes (data, results or models) into HydroShare, using the system as a collaboration platform for sharing data, models and analyses. HydroShare is expanding the data sharing capability of the CUAHSI Hydrologic Information System by broadening the classes of data accommodated, creating new capability to share models and model components, and taking advantage of emerging social media functionality to enhance information about and collaboration around hydrologic data and models. One of the fundamental concepts in HydroShare is that of a Resource. All content is represented using a Resource Data Model that separates system and science metadata and has elements common to all resources as well as elements specific to the types of resources HydroShare will support. These will include different data types used in the hydrology community and models and workflows that require metadata on execution functionality. The HydroShare web interface and social media functions are being developed using the Drupal content management system. A geospatial visualization and analysis component enables searching, visualizing, and analyzing geographic datasets. The integrated Rule-Oriented Data System (iRODS) is being used to manage federated data content and perform rule-based background actions on data and model resources, including parsing to generate metadata catalog information and the execution of models and workflows. This presentation will introduce the HydroShare functionality developed to date, describe key elements of the Resource Data Model and outline the roadmap for future development.
Resumo:
The Short-term Water Information and Forecasting Tools (SWIFT) is a suite of tools for flood and short-term streamflow forecasting, consisting of a collection of hydrologic model components and utilities. Catchments are modeled using conceptual subareas and a node-link structure for channel routing. The tools comprise modules for calibration, model state updating, output error correction, ensemble runs and data assimilation. Given the combinatorial nature of the modelling experiments and the sub-daily time steps typically used for simulations, the volume of model configurations and time series data is substantial and its management is not trivial. SWIFT is currently used mostly for research purposes but has also been used operationally, with intersecting but significantly different requirements. Early versions of SWIFT used mostly ad-hoc text files handled via Fortran code, with limited use of netCDF for time series data. The configuration and data handling modules have since been redesigned. The model configuration now follows a design where the data model is decoupled from the on-disk persistence mechanism. For research purposes the preferred on-disk format is JSON, to leverage numerous software libraries in a variety of languages, while retaining the legacy option of custom tab-separated text formats when it is a preferred access arrangement for the researcher. By decoupling data model and data persistence, it is much easier to interchangeably use for instance relational databases to provide stricter provenance and audit trail capabilities in an operational flood forecasting context. For the time series data, given the volume and required throughput, text based formats are usually inadequate. A schema derived from CF conventions has been designed to efficiently handle time series for SWIFT.
Resumo:
Recently, two international standard organizations, ISO and OGC, have done the work of standardization for GIS. Current standardization work for providing interoperability among GIS DB focuses on the design of open interfaces. But, this work has not considered procedures and methods for designing river geospatial data. Eventually, river geospatial data has its own model. When we share the data by open interface among heterogeneous GIS DB, differences between models result in the loss of information. In this study a plan was suggested both to respond to these changes in the information envirnment and to provide a future Smart River-based river information service by understanding the current state of river geospatial data model, improving, redesigning the database. Therefore, primary and foreign key, which can distinguish attribute information and entity linkages, were redefined to increase the usability. Database construction of attribute information and entity relationship diagram have been newly redefined to redesign linkages among tables from the perspective of a river standard database. In addition, this study was undertaken to expand the current supplier-oriented operating system to a demand-oriented operating system by establishing an efficient management of river-related information and a utilization system, capable of adapting to the changes of a river management paradigm.
Resumo:
o ambiente econômico atual tem exigido empenho das empresas em conhecer, interagir, diferenciar e personalizar cada vez mais produtos e serviços para os clientes. Este cenário requer ferramentas e modelos de gestão para gerenciar as relações com os clientes, com o objetivo de permitir que a empresa consiga perceber e responder rapidamente a exigências dos consumidores. Este trabalho revisa conceitos de CRM (Customer Relationschip Management ou Gerenciamento das Relações com os Clientes) e descreve a implementação de ferramenta de gestão de relacionamento com clientes em empresa de consórcio. O desenvolvimento do trabalho reflete uma necessidade apontada no planejamento estratégico da empresa, sendo que ferramentas de tecnologia de informação e software de banco de dados foram usadas como suporte aos propósitos da gestão empresarial. Como resultado do trabalho, a empresa está hoje atuando com um sistema de Data Base Marketing, o qual foi criado para auxiliar os profissionais envolvidos no processo de atendimento e gestão de relacionamento com clientes. O Data Base Marketing esta sendo utilizado para coletar dados de atendimento a clientes, tais como históricos de atendimento, dados cadastrais, perfil demográfico, perfil psicográfico e categoria de valor dos clientes. Durante o processo de interação com clientes, o sistema facilita o trabalho dos especialistas e permite melhorar a qualidade do atendimento aos clientes, contemplando necessidades dos diversos especialistas da empresa em assuntos como vendas, qualidade em serviços, finanças e gestão empresarial.O processo começou pela constituição de um grupo de trabalho interno para discutir estratégias e cronograma de implantação. A primeira decisão do grupo foi pelo desenvolvimento interno do software visando atender plenamente o "core business" da empresa. O processo começou pela constituição de um grupo de trabalho interno para discutir estratégias e cronograma de implantação. A primeira decisão do grupo foi pelo desenvolvimento interno do software visando atender plenamente o "core business" da empresa. O projeto contou com o conhecimento do negócio dos profissionais da empresa e auxilio de especialistas e consultores externos. O detalhamento do projeto, bem como os passos da pesquisa-ação, está descrito no corpo da dissertação.
Resumo:
Este trabalho apresenta um estudo de caso de mineração de dados no varejo. O negócio em questão é a comercialização de móveis e materiais de construção. A mineração foi realizada sobre informações geradas das transações de vendas por um período de 8 meses. Informações cadastrais de clientes também foram usadas e cruzadas com informações de venda, visando obter resultados que possam ser convertidos em ações que, por conseqüência, gerem lucro para a empresa. Toda a modelagem, preparação e transformação dos dados, foi feita visando facilitar a aplicação das técnicas de mineração que as ferramentas de mineração de dados proporcionam para a descoberta de conhecimento. O processo foi detalhado para uma melhor compreensão dos resultados obtidos. A metodologia CRISP usada no trabalho também é discutida, levando-se em conta as dificuldades e facilidades que se apresentaram durante as fases do processo de obtenção dos resultados. Também são analisados os pontos positivos e negativos das ferramentas de mineração utilizadas, o IBM Intelligent Miner e o WEKA - Waikato Environment for Knowledge Analysis, bem como de todos os outros softwares necessários para a realização do trabalho. Ao final, os resultados obtidos são apresentados e discutidos, sendo também apresentada a opinião dos proprietários da empresa sobre tais resultados e qual valor cada um deles poderá agregar ao negócio.
Resumo:
This paper presents an overview of the Brazilian macroeconomy by analyzing the evolution of some specific time series. The presentation is made through a sequence of graphs. Several remarkable historical points and open questions come up in the data. These include, among others, the drop in output growth as of 1980, the clear shift from investments to government current expenditures which started in the beginning of the 80s, the notable way how money, prices and exchange rate correlate in an environment of permanently high inflation, the historical coexistence of high rates of growth and high rates of inflation, as well as the drastic increase of the velocity of circulation of money between the 70s and the mid-90s. It is also shown that, although net external liabilities have increased substantially in current dollars after the Real Plan, its ratio with respect to exports in 2004 is practically the same as the one existing in 1986; and that residents in Brazil, in average, owed two more months of their final income (GNP) to abroad between 1995-2004 than they did between 1990 and 1994. Variance decompositions show that money has been important to explain prices, but not output (GDP).
Resumo:
Este trabalho analisa o desenvolvimento de dynamic capabilities em um contexto de turbulência institucional, diferente das condições em que esta perspectiva teórica costuma ser estudada. É feito um estudo de caso histórico e processual que analisa o surgimento das Dynamic Capabilities nos bancos brasileiros, a partir do desenvolvimento da tecnologia bancária que se deu entre os anos 1960 e 1990. Baseando-se nas proposições da Estratégia que analisam as vantagens competitivas das empresas através de seus recursos, conhecimentos e Dynamic Capabilities, é construído um framework com o qual são analisados diversos depoimentos dados ao livro “Tecnologia bancária no Brasil: uma história de conquistas, uma visão de futuro” (FONSECA; MEIRELLES; DINIZ, 2010) e em entrevistas feitas para este trabalho. Os depoimentos mostram que os bancos fizeram fortes investimentos em tecnologia a partir da reforma financeira de 1964, época em que se iniciou uma sequência de períodos com características próprias do ponto de vista institucional. Conforme as condições mudavam a cada período, os bancos também mudavam seu processo de informatização. No início, os projetos eram executados ad hoc, sob o comando direto dos líderes dos bancos. Com o tempo, à medida que a tecnologia evoluía, a infraestrutura tecnológica crescia e surgiam turbulências institucionais, os bancos progressivamente desenvolveram parcerias entre si e com fornecedores locais, descentralizaram a área de tecnologia, tornaram-se mais flexíveis, fortaleceram a governança corporativa e adotaram uma série de rotinas para cuidar da informática, o que levou ao desenvolvimento gradual das microfundações das Dynamic Capabilties nesses períodos. Em meados dos anos 1990 ocorreram a estabilização institucional e a abertura da economia à concorrência estrangeira, e assim o país colocou-se nas condições que a perspectiva teórica adotada considera ideais para que as Dynamic Capabilities sejam fontes de vantagem competitiva. Os bancos brasileiros mostraram-se preparados para enfrentar essa nova fase, o que é uma evidência de que eles haviam desenvolvido Dynamic Capabilities nas décadas precedentes, sendo que parte desse desenvolvimento podia ser atribuído às turbulências institucionais que eles haviam enfrentado.
Resumo:
Sistemas de tomada de decisão baseados em Data Warehouse (DW) estão sendo cada dia mais utilizados por grandes empresas e organizações. O modelo multidimensional de organização dos dados utilizado por estes sistemas, juntamente com as técnicas de processamento analítico on-line (OLAP), permitem análises complexas sobre o histórico dos negócios através de uma simples e intuitiva interface de consulta. Apesar dos DWs armazenarem dados históricos por natureza, as estruturas de organização e classificação destes dados, chamadas de dimensões, não possuem a rigor uma representação temporal, refletindo somente a estrutura corrente. Para um sistema destinado à análise de dados, a falta do histórico das dimensões impossibilita consultas sobre o ambiente real de contextualização dos dados passados. Além disso, as alterações dos esquemas multidimensionais precisam ser assistidas e gerenciadas por um modelo de evolução, de forma a garantir a consistência e integridade do modelo multidimensional sem a perda de informações relevantes. Neste trabalho são apresentadas dezessete operações de alteração de esquema e sete operações de alteração de instâncias para modelos multidimensionais de DW. Um modelo de versões, baseado na associação de intervalos de validade aos esquemas e instâncias, é proposto para o gerenciamento dessas operações. Todo o histórico de definições e de dados do DW é mantido por esse modelo, permitindo análises completas dos dados passados e da evolução do DW. Além de suportar consultas históricas sobre as definições e as instâncias do DW, o modelo também permite a manutenção de mais de um esquema ativo simultaneamente. Isto é, dois ou mais esquemas podem continuar a ter seus dados atualizados periodicamente, permitindo assim que as aplicações possam consultar dados recentes utilizando diferentes versões de esquema.
Resumo:
This paper presents an overview of the Brazilian macroeconomy by analyzing the evolution of some specific time series. The presentation is made through a sequence of graphs. Several remarkable historical points and open questions come up in the data. These include, among others, the drop in output growth as of 1980, the clear shift from investments to government current expenditures which started in the beginning of the 80s, the notable way how money, prices and exchange rate correlate in an environment of permanently high inHation, the historical coexistence of high rates of growth and high rates of inHation, as well as the drastic increase of the velocity of circulation of money between the 70s and the mid-90s. It is also shown that, although net external liabilities have increased substantially in current dollars after the Real Plan, its ratio with respect to exports in 2004 is practically the same as the one existing in 1986; and that residents in Brazil, in average, owed two more months of their final income (GNP) to abroad between 1995-2004 than they did between 1990 and 1994. Variance decompositions show that money has been important to explain prices, but not output (GDP).
Resumo:
This paper studies the role of Vertical Specialization-based trade and foreign damand push as elements capable of explaining export-led recoveries in small open industrialized economies. The empirical evidence on export-led recoveries is reviewed. Data supporting the growing importance of vertical specialization for international trade are presented. I compare the performance of two versions of a small open economy model, calibrated to mimic Canadian Business Cycles. The …rst one is based upon Schmitt-Grohe(1998). The second incorporates Vertical- Specialization-based trade. I show that an arti…cial economy featuring Vertical-Specializationbased trade in conjunction with an exogenous AR(2) process for foreign output displays improved impulse responses to a foreign output shock and is able to mimic the contribution of Canadian exports to output growth during economic recoveries.
Resumo:
Humans can perceive three dimension, our world is three dimensional and it is becoming increasingly digital too. We have the need to capture and preserve our existence in digital means perhaps due to our own mortality. We have also the need to reproduce objects or create small identical objects to prototype, test or study them. Some objects have been lost through time and are only accessible through old photographs. With robust model generation from photographs we can use one of the biggest human data sets and reproduce real world objects digitally and physically with printers. What is the current state of development in three dimensional reconstruction through photographs both in the commercial world and in the open source world? And what tools are available for a developer to build his own reconstruction software? To answer these questions several pieces of software were tested, from full commercial software packages to open source small projects, including libraries aimed at computer vision. To bring to the real world the 3D models a 3D printer was built, tested and analyzed, its problems and weaknesses evaluated. Lastly using a computer vision library a small software with limited capabilities was developed.