908 resultados para Capability Maturity Model for Software


Relevância:

30.00% 30.00%

Publicador:

Resumo:

HydroShare is an online, collaborative system being developed for open sharing of hydrologic data and models. The goal of HydroShare is to enable scientists to easily discover and access hydrologic data and models, retrieve them to their desktop or perform analyses in a distributed computing environment that may include grid, cloud or high performance computing model instances as necessary. Scientists may also publish outcomes (data, results or models) into HydroShare, using the system as a collaboration platform for sharing data, models and analyses. HydroShare is expanding the data sharing capability of the CUAHSI Hydrologic Information System by broadening the classes of data accommodated, creating new capability to share models and model components, and taking advantage of emerging social media functionality to enhance information about and collaboration around hydrologic data and models. One of the fundamental concepts in HydroShare is that of a Resource. All content is represented using a Resource Data Model that separates system and science metadata and has elements common to all resources as well as elements specific to the types of resources HydroShare will support. These will include different data types used in the hydrology community and models and workflows that require metadata on execution functionality. The HydroShare web interface and social media functions are being developed using the Drupal content management system. A geospatial visualization and analysis component enables searching, visualizing, and analyzing geographic datasets. The integrated Rule-Oriented Data System (iRODS) is being used to manage federated data content and perform rule-based background actions on data and model resources, including parsing to generate metadata catalog information and the execution of models and workflows. This presentation will introduce the HydroShare functionality developed to date, describe key elements of the Resource Data Model and outline the roadmap for future development.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

While the simulation of flood risks originating from the overtopping of river banks is well covered within continuously evaluated programs to improve flood protection measures, flash flooding is not. Flash floods are triggered by short, local thunderstorm cells with high precipitation intensities. Small catchments have short response times and flow paths and convective thunder cells may result in potential flooding of endangered settlements. Assessing local flooding and pathways of flood requires a detailed hydraulic simulation of the surface runoff. Hydrological models usually do not incorporate surface runoff at this detailedness but rather empirical equations are applied for runoff detention. In return 2D hydrodynamic models usually do not allow distributed rainfall as input nor are any types of soil/surface interaction implemented as in hydrological models. Considering several cases of local flash flooding during the last years the issue emerged for practical reasons but as well as research topics to closing the model gap between distributed rainfall and distributed runoff formation. Therefore, a 2D hydrodynamic model, depth-averaged flow equations using the finite volume discretization, was extended to accept direct rainfall enabling to simulate the associated runoff formation. The model itself is used as numerical engine, rainfall is introduced via the modification of waterlevels at fixed time intervals. The paper not only deals with the general application of the software, but intends to test the numerical stability and reliability of simulation results. The performed tests are made using different artificial as well as measured rainfall series as input. Key parameters of the simulation such as losses, roughness or time intervals for water level manipulations are tested regarding their impact on the stability.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The Short-term Water Information and Forecasting Tools (SWIFT) is a suite of tools for flood and short-term streamflow forecasting, consisting of a collection of hydrologic model components and utilities. Catchments are modeled using conceptual subareas and a node-link structure for channel routing. The tools comprise modules for calibration, model state updating, output error correction, ensemble runs and data assimilation. Given the combinatorial nature of the modelling experiments and the sub-daily time steps typically used for simulations, the volume of model configurations and time series data is substantial and its management is not trivial. SWIFT is currently used mostly for research purposes but has also been used operationally, with intersecting but significantly different requirements. Early versions of SWIFT used mostly ad-hoc text files handled via Fortran code, with limited use of netCDF for time series data. The configuration and data handling modules have since been redesigned. The model configuration now follows a design where the data model is decoupled from the on-disk persistence mechanism. For research purposes the preferred on-disk format is JSON, to leverage numerous software libraries in a variety of languages, while retaining the legacy option of custom tab-separated text formats when it is a preferred access arrangement for the researcher. By decoupling data model and data persistence, it is much easier to interchangeably use for instance relational databases to provide stricter provenance and audit trail capabilities in an operational flood forecasting context. For the time series data, given the volume and required throughput, text based formats are usually inadequate. A schema derived from CF conventions has been designed to efficiently handle time series for SWIFT.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Running hydrodynamic models interactively allows both visual exploration and change of model state during simulation. One of the main characteristics of an interactive model is that it should provide immediate feedback to the user, for example respond to changes in model state or view settings. For this reason, such features are usually only available for models with a relatively small number of computational cells, which are used mainly for demonstration and educational purposes. It would be useful if interactive modeling would also work for models typically used in consultancy projects involving large scale simulations. This results in a number of technical challenges related to the combination of the model itself and the visualisation tools (scalability, implementation of an appropriate API for control and access to the internal state). While model parallelisation is increasingly addressed by the environmental modeling community, little effort has been spent on developing a high-performance interactive environment. What can we learn from other high-end visualisation domains such as 3D animation, gaming, virtual globes (Autodesk 3ds Max, Second Life, Google Earth) that also focus on efficient interaction with 3D environments? In these domains high efficiency is usually achieved by the use of computer graphics algorithms such as surface simplification depending on current view, distance to objects, and efficient caching of the aggregated representation of object meshes. We investigate how these algorithms can be re-used in the context of interactive hydrodynamic modeling without significant changes to the model code and allowing model operation on both multi-core CPU personal computers and high-performance computer clusters.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo da pesquisa atém-se primeiramente em elaborar um protocolo que permita analisar, por meio de um conjunto de indicadores, o processo de reutilização de software no desenvolvimento de sistemas de informação modelando objetos de negócios. O protocolo concebido compõe-se de um modelo analítico e de grades de análise, a serem empregadas na classificação e tabulação dos dados obtidos empiricamente. Com vistas à validação inicial do protocolo de análise, realiza-se um estudo de caso. A investigação ocorre num dos primeiros e, no momento, maior projeto de fornecimento de elementos de software reutilizáveis destinados a negócios, o IBM SANFRANCISCO, bem como no primeiro projeto desenvolvido no Brasil com base no por ele disponibilizado, o sistema Apontamento Universal de Horas (TIME SHEET System). Quanto à aplicabilidade do protocolo na prática, este se mostra abrangente e adequado à compreensão do processo. Quanto aos resultados do estudo de caso, a análise dos dados revela uma situação em que as expectativas (dos pesquisadores) de reutilização de elementos de software orientadas a negócio eram superiores ao observado. Houve, entretanto, reutilização de elementos de baixo nível, que forneceram a infra-estrutura necessária para o desenvolvimento do projeto. Os resultados contextualizados diante das expectativas de reutilização (dos desenvolvedores) são positivos, na medida em que houve benefícios metodológicos e tecnológicos decorrentes da parceria realizada. Por outro lado, constatam-se alguns aspectos restritivos para o desenvolvedor de aplicativos, em virtude de escolhas arbitrárias realizadas pelo provedor de elementos reutilizáveis.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The aim of this case study was to investigate how the evolutionary process of the development of software, especially the change of paradigm for the factory software, has affected the structure of the Board of Relacionamento, Desenvolvimento e Informações - DRD at a public company called Dataprev and also reflecting or not a return to the model taylorist-fordist of the organization on production. For this study, there were interviews and a questionnaire applied, as well as documentary and literature review on the following topics: organizational structure, factory software, taylorism and fordism. From the data collected and analyzed, in the perspective studied, it was understood that there is not a return to the model taylorist-fordist to organize the production in the process of adopting the concept of a software factory in Dataprev. In addition to that, there was a flexibility in the organizational structure of its units of development - the softwares factories Dataprev.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The present work consists on the development and exploration of a knowledge mapping model. It is aimed in presenting and testing that model in an exploratory manner for the operationalization in theoretical terms and its practical application. For this proposal, it approaches ¿knowledge management¿ by three dimensions of management: processes control, results control and leadership. Assuming the inherently personal character of knowledge and admitting the impossibility for the management to command the individuals knowledge mental processes, this study states the possibility for management to control the organizations information processes, to state and to monitor the objectives and to lead people. Therefore, the developed tool searches to graphically represent the people¿s knowledge, which becomes, consequently, information. Also it evaluates the individual¿s maturity against the identified knowledge and prescribes, according to the Situational Leadership Theory, a style of leadership in compliance with the respective maturities. The knowledge map considered here translates the graphical representation of the relevant knowledge that is said to reach the objectives of the organization. That fact allows the results management for two reasons: first, the knowledge items are directly or indirectly connected to an objective and second, the knowledge map developed indicates a importance grade of the identified knowledge for the main objective stated. The research strategy adopted to explore the model of knowledge mapping and to test its applicability, also identifying its possible contributions and limitations, is the Actionresearch. Following the research strategy¿s prescribed stages, the knowledge map, as considered by this study, was applied in a software development company to hospitals, clinics and restaurants management which is called ¿Tergus Systems and Consulting¿. More precisely, the knowledge map was applied in the customer support company¿s area for hospitals. The research¿s empirical evidences had concluded that the model is applicable with low level of complexity, but with great demand of time. The more important contributions are related to the identification of the relevant knowledge to the department objectives in set with a prescription of the knowledge capture and transference necessities, as well as, the orientation for the appropriate leadership style for each subordinate related to the knowledge item in question.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A importância do tema relacionamento com clientes tem sido crescentemente reconhecida pelo mercado, enquanto alternativa para diferenciação estratégica e mesmo sobrevivência competitiva. Este estudo objetiva avaliar a influência do nível de maturidade da implementação da estratégia de Customer Relationship Management no desempenho organizacional. O nível de maturidade é estudado em função de capacidades (Analítica e de Consistência na Comunicação), compostas por diversas atividades, e o desempenho em função de suas componentes financeira e não-financeira. O presente trabalho contribui para o estudo da gradação de atividades e capacidades de CRM enquanto critério para mensuração dos resultados de sua implementação. Para isso é analisado um modelo de equações estruturais utilizando-se o software LISREL. Os resultados evidenciaram um modelo final com bom grau de adequação, permitindo constatar que a Capacidade Analítica da organização tem influência em seus desempenhos financeiro e não-financeiro e que, por sua vez, a Consistência na Comunicação influencia somente este último tipo de desempenho. Ao final são apresentadas as implicações gerenciais, limitações e sugestões para pesquisas futuras.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os avanços tecnológicos, principalmente os relacionados tecnologia da informação das telecomunicações, transformaram as organizações sociedade, são objeto de conflitos empresariais devido às mudanças que produzem na vida das pessoas nas formas de trabalho. Este estudo procura analisar contribuição da TI, em especial dos produtos de software, na discutível mudança do paradigma fordista para pós-fordista. adoção dessas tecnologias pode se configurar como competência essencial fator de competitividade da empresa, no entanto os impactos dessa nova dinâmica empresarial que faz uso intensivo da TI carecem de maior estudo compreensão para verificar se nessa dinâmica está envolvido um processo efetivo de flexibilização ou apenas uma sistemática para redução de custos. trabalho foi baseado em um estudo de caso, por meio de pesquisa realizada com usuários de produtos de software em uma grande empresa do setor elétrico, para verificar contribuição desses produtos no processo de flexibilização organizacional. Os resultados indicam a existência de fatores facilitadores do processo de flexibilização apoiados na utilização de sistemas informatizados. Os produtos de software alteram de forma significativa processo de comunicação aproximam as pessoas entre diferentes níveis hierárquicos. No entanto, tecnologia ainda não utilizada de forma disseminada como recurso para flexibilizar as relações de trabalho, principalmente no que se refere execução de atividades em locais horários de trabalho não convencionais. Para operacionalização de um modelo de gestão flexível, com características pós-fordistas, há necessidade de desenvolvimento de um novo perfil nas relações de trabalho que ainda têm características do modelo fordista de produção.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Há mais de 30 anos o Brasil tem desenvolvido políticas específicas para o setor de informática, desde a Política Nacional de Informática da década de 70, passando pelo Período de Reserva de Mercado dos anos 80 e, nos dias de hoje, em que as Tecnologias de Informação e Comunicação (TIC) são tidas como uma das áreas prioritárias na Política Industrial. Dentre as metas atuais, destaca-se o foco na ampliação do volume de exportações de software e serviços. Contudo, apesar dessas pretensões, o país não tem tido destaque internacional expressivo para o setor. Por outro lado, a Índia, também considerada como um país emergente, figurando na lista dos BRIC, foi responsável pela exportação de cerca de US$47 bilhões em software e serviços de Tecnologia da Informação (TI) em 2009, se destacando como um país protagonista no mercado internacional do setor. A implementação de uma indústria tecnicamente sofisticada como a do software, que exige um ambiente propício à inovação, em um país em desenvolvimento como a Índia chama a atenção. De certo existiram arranjos jurídico-institucionais que foram utilizados naquele país. Quais? Em que medida tais arranjos ajudaram no desenvolvimento indiano do setor? E no Brasil? Este trabalho parte da hipótese de que o ambiente jurídico-institucional desses países definiu fluxos de conhecimento distintos, influenciando o tipo de desenvolvimento do setor de software de cada um. Averiguar como, entre outros fatores sócio-econômicos, esses arranjos jurídico-institucionais influenciaram na conformação diversa de fluxos de conhecimento é o objetivo específico desta pesquisa. Entende-se aqui como ambiente jurídico-institucional todas as regulamentações que estabelecem instituições, diretrizes e condições comuns para determinado tema. Partindo do pressuposto de que o setor de software desenvolve atividades intensivas em conhecimento, para cada país em questão, serão analisados apenas arranjos jurídico-institucionais que tiveram, ou têm, poder de delimitar o fluxo de conhecimento referente ao setor, sejam eles provenientes de políticas comerciais (de exportação e importação, ou de propriedade intelectual) ou de políticas de investimento para inovação. A questão fundamental ultrapassa o debate se o Estado deve ou não intervir, para focar-se na análise sobre os diferentes tipos de envolvimento observados e quais os seus efeitos. Para tal, além de revisão bibliográfica, foi feita uma pesquisa de campo na Índia (Delhi, Mumbai, Bangalore) e no Brasil (São Paulo, Brasília e Rio de Janeiro), onde foram conduzidas entrevistas com empresas e associações de software, gestores públicos e acadêmicos que estudam o setor.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

o trabalho analisa a indústria nacional de software, em especial, o software para exportação e as fábricas de software, focalizando as estratégias e os desafios do empresariado nacional da Tecnologia da Informação e Comunicação que atua neste segmento. Tendo por base considerações sobre o taylorismo, o fordismo, a flexibilidade do trabalho, a legislação trabalhista vigente, a competitividade do mercado de software, a maturidade nos processos de gestão e a responsabilidade social das empresas, colocou-se em perspectiva os principais fatores que podem influenciar o sucesso ou o fracasso das empresas nacionais de Tecnologia da Informação e Comunicação que investem no segmento de fábrica de software;

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A random-matching model (ofmoney) is formulated in which there is complete public knowledge of the trading histories of a subset of the population, called the banking sector, and no public knowledge of the trading histories of the complement of that subset, called the non bank sector. Each person, whether a banker or a non banker, is assumed to have the technological capability to create indivisible and durable objects called notes. If outside money is indivisible and sufficiently scarce, then the optimal mechanism is shown to have note issue and note destruction (redemption) by members of the banking sector.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudo investiga o poder preditivo fora da amostra, um mês à frente, de um modelo baseado na regra de Taylor para previsão de taxas de câmbio. Revisamos trabalhos relevantes que concluem que modelos macroeconômicos podem explicar a taxa de câmbio de curto prazo. Também apresentamos estudos que são céticos em relação à capacidade de variáveis macroeconômicas preverem as variações cambiais. Para contribuir com o tema, este trabalho apresenta sua própria evidência através da implementação do modelo que demonstrou o melhor resultado preditivo descrito por Molodtsova e Papell (2009), o “symmetric Taylor rule model with heterogeneous coefficients, smoothing, and a constant”. Para isso, utilizamos uma amostra de 14 moedas em relação ao dólar norte-americano que permitiu a geração de previsões mensais fora da amostra de janeiro de 2000 até março de 2014. Assim como o critério adotado por Galimberti e Moura (2012), focamos em países que adotaram o regime de câmbio flutuante e metas de inflação, porém escolhemos moedas de países desenvolvidos e em desenvolvimento. Os resultados da nossa pesquisa corroboram o estudo de Rogoff e Stavrakeva (2008), ao constatar que a conclusão da previsibilidade da taxa de câmbio depende do teste estatístico adotado, sendo necessária a adoção de testes robustos e rigorosos para adequada avaliação do modelo. Após constatar não ser possível afirmar que o modelo implementado provém previsões mais precisas do que as de um passeio aleatório, avaliamos se, pelo menos, o modelo é capaz de gerar previsões “racionais”, ou “consistentes”. Para isso, usamos o arcabouço teórico e instrumental definido e implementado por Cheung e Chinn (1998) e concluímos que as previsões oriundas do modelo de regra de Taylor são “inconsistentes”. Finalmente, realizamos testes de causalidade de Granger com o intuito de verificar se os valores defasados dos retornos previstos pelo modelo estrutural explicam os valores contemporâneos observados. Apuramos que o modelo fundamental é incapaz de antecipar os retornos realizados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O fenômeno "Born global" refere-se a empresas que consideram o mercado global como seu contexto natural e que iniciam seu processo de internacionalização muito cedo após sua criação. As teorias tradicionais como o modelo de Uppsala não conseguem explicar este processo. Portanto, outras teorias têm surgido, como a perspectiva de redes. Existem alguns estudos relacionados a esta área, principalmente realizados em países desenvolvidos com pequenos mercados e economias abertas. No entanto, poucos estudos têm sido feitos em economias em desenvolvimento. Além disso, o número de pesquisas quanto à escolha do modo de entrada e seleção de mercados das empresas “born global” é bastante limitado. Consequentemente, este estudo pretende descrever os principais fatores que influenciam a escolha do modo de entrada e seleção de mercados das empresas, de economias em desenvolvimento, nascidas globais. O foco da pesquisa é a indústria de software e um estudo de casos múltiplo foi realizado com três empresas no Equador. A metodologia incluiu entrevistas com fundadores, bem como a coleta de dados secundários. Com base na evidência empírica, verificou-se que os principais fatores que influenciam a escolha do modo de entrada são as restrições financeiras, as receitas esperadas, a velocidade de internacionalização, mercados nicho e a experiência empresarial anterior dos fundadores. Por outro lado, a seleção de mercado é influenciada por semelhanças de língua e cultura, mercados nicho e relações em rede.