958 resultados para Open Data-bank
Resumo:
Presentation of Kristiina Hormia-Poutanen at the 25th Anniversary Conference of The National Repository Library of Finland, Kuopio 22th of May 2015.
Resumo:
Globalization and interconnectedness in the worldwide sphere have changed the existing and prevailing modus operandi of organizations around the globe and have challenged existing practices along with the business as usual mindset. There are no rules in terms of creating a competitive advantage and positioning within an unstable, constantly changing and volatile globalized business environment. The financial industry, the locomotive or the flagship industry of global economy, especially, within the aftermath of the financial crisis, has reached a certain point trying to recover and redefine its strategic orientation and positioning within the global business arena. Innovation has always been a trend and a buzzword and by many has been considered as the ultimate answer to any kind of problem. The mantra Innovate or Die has been prevailing in any organizational entity in a, sometimes, ruthless endeavour to develop cutting-edge products and services and capture a landmark position in the market. The emerging shift from a closed to an open innovation paradigm has been considered as new operational mechanism within the management and leadership of the company of the future. To that respect, open innovation has been experiencing a tremendous growth research trajectory by putting forward a new way of exchanging and using surplus knowledge in order to sustain innovation within organizations and in the level of industry. In the abovementioned reality, there seems to be something missing: the human element. This research, by going beyond the traditional narratives for open innovation, aims at making an innovative theoretical and managerial contribution developed and grounded on the on-going discussion regarding the individual and organizational barriers to open innovation within the financial industry. By functioning across disciplines and researching out to primary data, it debunks the myth that open innovation is solely a knowledge inflow and outflow mechanism and sheds light to the understanding on the why and the how organizational open innovation works by enlightening the broader dynamics and underlying principles of this fascinating paradigm. Little attention has been given to the role of the human element, the foundational pre-requisite of trust encapsulated within the precise and fundamental nature of organizing for open innovation, the organizational capabilities, the individual profiles of open innovation leaders, the definition of open innovation in the realms of the financial industry, the strategic intent of the financial industry and the need for nurturing a societal impact for human development. To that respect, this research introduces the trust-embedded approach to open innovation as a new insightful way of organizing for open innovation. It unveils the peculiarities of the corporate and individual spheres that act as a catalyst towards the creation of productive open innovation activities. The incentive of this research captures the fundamental question revolving around the need for financial institutions to recognise the importance for organizing for open innovation. The overarching question is why and how to create a corporate culture of openness in the financial industry, an organizational environment that can help open innovation excel. This research shares novel and cutting edge outcomes and propositions both under the prism of theory and practice. The trust-embedded open innovation paradigm captures the norms and narratives around the way of leading open innovation within the 21st century by cultivating a human-centricity mindset that leads to the creation of human organizations, leaving behind the dehumanization mindset currently prevailing within the financial industry.
Resumo:
This research aimed to determine the soil seed bank and its relationship with environmental factors that have an influence in the distribution of the vegetation above the ground in an excluded area of natural grassland in the South of Brazil. Most of the 122 identified species in the seed bank were perennials. Data analysis indicated three distinct community groups, according to the size and composition of the soil seed bank in lowlands with permanent wet soils, in lowlands and in other areas. In general, lowlands were characterized by low-fertility soils, high moisture and aluminum contents, being spatially homogeneous habitats and, therefore, more restricted to vegetation heterogeneity than other parts of the relief. Environmental factors most associated with soil seed bank size and composition were relief position and their co-related soil variables such as: soil moisture content, potassium content, organic matter, basic saturation of cation exchange soil capacity, exchangeable basics sum of the soil and clay soil content. According to that, relief position, associated with combined effects of soil chemical properties related to it, determines the observed variation pattern of the soil seed bank, as a reflection of the vegetation above the area.
Resumo:
This paper explores transparency in the decision-making of the European Central Bank (ECB). According to ECB´s definition, transparency means that the central bank provides the general public with all relevant information on its strategy, assessments and policy decisions as well as its procedures in an open, clear and timely manner. In this paper, however, the interpretation of transparency is somewhat broader: Information is freely available and directly accessible to those who will be affected by the decisions. Moreover, the individuals shall be able to master this material. ECB´s negative attitude towards publication of documents has demonstrated central bank´s reluctance to strive towards more extensive transparency. By virtue of the definition adopted by the ECB the bank itself is responsible for determining what is considered as relevant information. On the grounds of EU treaties, this paper assesses ECB`s accountability concentrating especially on transparency by employing principal-agent theory and constitutional approach. Traditionally, the definite mandate and the tenet of central bank independence have been used to justify the limited accountability. The de facto competence of the ECB has, however, considerably expanded as the central bank has decisively resorted to non-standard measures in order to combat the economic turbulences facing Europe. It is alleged that non-standard monetary policy constitutes a grey zone occasionally resembling economic policy or fiscal policy. Notwithstanding, the European Court of Justice has repeatedly approved these measures. This dynamic interpretation of the treaties seems to allow temporarily exceptions from the central bank´s primary objective during extraordinary times. Regardless, the paper suggests that the accountability nexus defined in the treaties is not sufficient in order to guarantee the accountability of the ECB after the adoption of the new, more active role. Enhanced transparency would help the ECB to maintain its credibility. Investing in the quality of monetary dialogue between the Parliament and the ECB appears to constitute the most adequate and practicable method to accomplish this intention. As a result of upgraded transparency the legitimacy of the central bank would not solely rest on its policy outputs.
Resumo:
In the last few decades, banking has strongly internationalized and become more complex. Hence, bank supervision and regulation has taken global perspective, too. The most important international regulation are the Basel frameworks by the Basel committee on banking supervision. This study examines the effects of bank supervision and regulation, especially the Basel II, on bank risk and risk-taking. In order to separate and recognize the efficiency of these effects, the co-effects of many supervisory and regulatory tools together with other relevant factors must be taken into account. The focus of the study is on the effects of asymmetric information and banking procyclicality on the efficiency of the Basel II. This study tries to find an answer, if the Basel II, implemented in 2008, has decreased bank risk in banks of European Union member states. This study examines empirically, if the volatility on bank stock returns have changed after the implementation of the Basel II. Panel data consists of 62 bank stock returns, bank-specific variables, economic variables and variables concerning regulatory environment between 2003 and 2011. Fixed effects regression is used for panel data analysis. Results indicate that volatility on bank stock returns has increased after 2008 and the implementation of the Basel II. Result is statistically very significant and robustness has been verified in different model specifications. The result of this study contradicts with the goal of the Basel II about banking system stability. Banking procyclicality and wrong incentives for regulatory arbitrage under asymmetric information explained in theoretical part may explain this result. On the other hand, simultaneously with the implementation of the Basel II, the global financial crisis emerged and caused severe losses in banks and increased stock volatility. However, it is clear that supervision and regulation was unable to prevent the global financial crisis. After the financial crisis, supervision and regulation have been reformed globally. The main problems of the Basel II, examined in the theoretical part, have been recognized in order to prevent problems of procyclicality and wrong incentives in the future.
Resumo:
This study examines the first experience of students, teachers, and an administrator in implementing a teacher-designed Leadership in Social Justice Program at a large urban Ontario secondary school. The program aimed to infuse a Freirean concept of critical pedagogical praxis (Freire, 1970/1993) in a grade 12 integrated educational experience with a social justice directive. Data were collected through two questionnaires and eight in-depth interviews. The data identified three areas of awareness that described ways in which student participants were impacted most profoundly (a) developing self-awareness, (b) understanding a new educational paradigm, and (c) finding a place in the world. The study found that the program was successful in highlighting the possibility for more meaningful education and engaged many students deeply; however, its success was limited by the lead teacher’s failure to fully grasp and implement tenets of Freirean critical pedagogy that involved the role of the teacher in pedagogical processes.
Resumo:
Cognitive interviews were used to evaluate two draft versions of a financial survey in Jamaica. The qualitative version used a few open-ended questions, and the quantitative version used numerous close-ended questions. A secondary analysis based on the cognitive interview literature was used to guide a content analysis of the aggregate data of both surveys. The cognitive interview analysis found that the long survey had fewer respondent errors than the open-ended questions on the short survey. A grounded theory analysis then examined the aggregate cognitive data, showing that the respondents attached complex meanings to their financial information. The main limitation of this study was that the standard assessments of quantitative and qualitative reliability and validity were not utilized. Further research should utilize statistical methods to compare and contrast aggregated cognitive interview probe responses on open and close ended surveys.
Resumo:
This paper studies the proposition that an inflation bias can arise in a setup where a central banker with asymmetric preferences targets the natural unemployment rate. Preferences are asymmetric in the sense that positive unemployment deviations from the natural rate are weighted more (or less) severely than negative deviations in the central banker's loss function. The bias is proportional to the conditional variance of unemployment. The time-series predictions of the model are evaluated using data from G7 countries. Econometric estimates support the prediction that the conditional variance of unemployment and the rate of inflation are positively related.
Resumo:
Israël est l’un des pays développés les plus féconds dans le monde et maintient un taux de fécondité stable depuis 1995. Il a échappé à la chute spectaculaire de la fécondité qui a été observée dans la plupart des pays occidentaux. Le taux de fécondité était de 2,96 enfants par femme en 2009 (Statistical Abstract of Israel, 2010, tableau 3.14). Le maintien d’une si forte fécondité pourrait être dû à l’immigration et à la “guerre démographique” qui sévit entre les différentes communautés vivant dans le pays (Sardon, 2006). Toutefois, on observe une différence significative entre les niveaux de fécondité des juifs d’Israël et de Cisjordanie depuis plusieurs années. Les études qui portent sur la fécondité en Israël sont faites au niveau national, ce qui ne fournit aucune explication sur cette différence. Pour ces raisons, l’étude de la fécondité en Israël mérite une attention particulière. Ce projet vise à identifier les différents facteurs qui ont une incidence sur la fécondité des femmes juives vivant en Israël et en Cisjordanie. Il contribuera à une meilleure compréhension des comportements liés à la fécondité de la population juive de la Cisjordanie et peut fournir des indices sur les mécanismes complexes qui régissent les relations entre Juifs et Arabes dans les territoires occupés. Grâce aux données recueillies dans l’Enquête sociale générale de 2004 d’Israël,des analyses descriptives et explicatives ont été produites. Dans un premier temps, les facteurs qui ont un impact sur la fécondité dans chaque région ont été déterminés et par la suite, une analyse de l’importance de ces facteur sur la fécondité a été produite. Le nombre d’enfants nés de femmes âgées de 20 à 55 ans constitue la variable d’intérêt et les variables explicatives retenues sont les suivantes: religiosité, éducation, revenu familial mensuel, statut d’emploi, pays d’origine, âge et état matrimonial. Cette étude a montré que les femmes juives qui résident en Cisjordanie ont un nombre prévu d’enfants de 13% supérieur à celui des femmes juives qui résident en Israël lorsque l’on contrôle toutes les variables. Il est notamment montré que la religion joue un rôle important dans l’explication de la forte fécondité des femmes juives dans les deux régions, mais son impact est plus important en Israël. L’éducation joue également un rôle important dans la réduction du nombre prévu d’enfants, en particulier en Cisjordanie. Tous ces facteurs contribuent à expliquer les différents niveaux de fécondité dans les deux régions, mais l’étude montre que ces facteurs ne permettent pas une explication exhaustive de la forte fécondité en Israël et en Cisjordanie. D’autres forces qui ne sont pas mesurables doivent avoir une incidence sur la fécondité telles que le nationalisme ou la laïcisation, par exemple.
Resumo:
Justification: Le glaucome entraîne une perte progressive de la vision causée par la détérioration du nerf optique. Le glaucome est répandu dans le monde et cause la cécité dans environ sept millions de personnes. Le glaucome touche plus de 400 000 Canadiens et sa prévalence augmente avec le vieillissement de la population.1,2 Il s'agit d'une maladie chronique surnoise dont les symptômes se manifestent uniquement lors des stades avancés et qui peuvent mener à la cécité. Présentement, le seul moyen possible d’arrêter la progression du glaucome au stade initial est de diminuer la pression intra-oculaire (PIO). Les analogues de prostaglandines (APG) topiques sont fréquemment utilisées comme traitement de première ligne. Cependant, la recherche démontre que cette classe de médicaments peut changer certaines propriétés de la cornée, et possiblement influencer la mesure de la PIO.3 Objectif: À déterminer si l'utilisation d'APG affecte les propriétés biomécaniques de la cornée. La conclusion sera basée sur l'analyse intégrée des résultats obtenus de l'analyseur Reichert oculaire Réponse (ORA), la tonométrie par applanation de Goldmann (TAG) et la pachymétrie ultrasonographique. Le deuxième objectif potentiel de cette étude est de déterminer la corrélation, le cas échéant, entre les propriétés biomécaniques de la cornée, l'épaisseur de la cornée centrale (ECC) et la PIO chez les patients subissant un traitement d’APG topique. L'hypothèse principale de cette étude est que l’APG influence les propriétés de la cornée telles que l'épaisseur centrale, l'élasticité et la résistance. Patients et méthodes : Soixante-dix yeux de 35 patients, âgés de 50-85 ans, atteints de glaucome à angle ouvert (GAO) et traités avec APG topique ont été examinés. Seulement les sujets avec une réfraction manifeste entre -6,00 D et +4,25 D ont été inclus. Les critères d'exclusion sont: patients avec n'importe quelle autre maladie de la cornée de l’œil, telles que la dystrophie endothéliale de Fuch’s et kératocône, ou tout antécédent de traumatisme ou d'une chirurgie de la cornée, ainsi que le port de lentilles de contact. Nous avons demandé aux patients atteints du glaucome qui ont des paramètres stables et qui utilisent l’APG dans les deux yeux de cesser l’APG dans l'œil moins affecté par la PIO, et de continuer l’utilisation d’APG dans l'œil contralatéral. Le meilleur œil est défini comme celui avec moins de dommage sur le champ visuel (CV) (déviation moyenne (DM), le moins négatif) ou une PIO maximale historique plus basse si la DM est égale ou encore celui avec plus de dommage sur la tomographie par cohérence optique (TCO, Cirrus, CA) ou la tomographie confocale par balayage laser (HRT, Heidelberg, Allemagne). Toutes les mesures ont été prises avant la cessation d’APG et répétées 6 semaines après l’arrêt. Les patients ont ensuite recommencé l’utilisation d’APG et toutes les mesures ont été répétées encore une fois après une période supplémentaire de 6 semaines. Après commencer ou de changer le traitement du glaucome, le patient doit être vu environ 4-6 semaines plus tard pour évaluer l'efficacité de la goutte.4 Pour cette raison, on été décidé d'utiliser 6 semaines d'intervalle. Toutes les mesures ont été effectuées à l’institut du glaucome de Montréal par le même technicien, avec le même équipement et à la même heure de la journée. L'œil contralatéral a servi comme œil contrôle pour les analyses statistiques. La tonométrie par applanation de Goldmann a été utilisée pour mesurer la PIO, la pachymétrie ultrasonographique pour mesurer l'ECC, et l’ORA pour mesurer les propriétés biomécaniques de la cornée, incluant l'hystérèse cornéenne (HC). L’hypothèse de l'absence d'effet de l'arrêt de l’APG sur les propriétés biomécaniques a été examiné par un modèle linéaire à effets mixtes en utilisant le logiciel statistique R. Les effets aléatoires ont été définies à deux niveaux: le patient (niveau 1) et l'œil de chaque patient (niveau 2). Les effets aléatoires ont été ajoutés au modèle pour tenir compte de la variance intra-individuelle. L’âge a également été inclus dans le modèle comme variable. Les contrastes entre les yeux et les temps ont été estimés en utilisant les valeurs p ajustées pour contrôler les taux d'erreur internes de la famille en utilisant multcomp paquet dans R. Résultats: Une augmentation statistiquement significative due l 'HC a été trouvée entre les visites 1 (sur APG) et 2 (aucun APG) dans les yeux de l'étude, avec une moyenne (±erreur standard) des valeurs de 8,98 ± 0,29 mmHg et 10,35 ± 0,29 mmHg, respectivement, correspondant à une augmentation moyenne de 1,37 ± 0,18 mmHg (p <0,001). Une réduction significative de 1,25 ± 0,18 mmHg (p <0,001) a été observée entre les visites 2 et 3, avec une valeur moyenne HC finale de 9,09 ± 0,29 mmHg. En outre, une différence statistiquement significative entre l’oeil d’étude et le contrôle n'a été observée que lors de la visite 2 (1,01 ± 0,23 mmHg, p <0,001) et non lors des visites 1 et 3. Une augmentation statistiquement significative du facteur de résistance conréen (FRC) a été trouvée entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 10,23 ± 0,34 mmHg et 11,71 ± 0,34 mmHg, respectivement. Le FRC a ensuite été réduit de 1,90 ± 0,21 mmHg (p <0,001) entre les visites 2 et 3, avec une valeur moyenne FRC finale de 9,81 ± 0,34 mmHg. Une différence statistiquement significative entre l’oeil d’étude et le contrôle n'a été observée que lors de la visite 2 (1,46 ± 0,23 mmHg, p <0,001). Une augmentation statistiquement significative de l'ECC a été trouvée entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 541,83 ± 7,27 µm et 551,91 ± 7,27 µm, respectivement, ce qui correspond à une augmentation moyenne de 10,09 ± 0,94 µm (p <0,001). L'ECC a ensuite diminué de 9,40 ± 0,94 µm (p <0,001) entre les visites 2 et 3, avec une valeur moyenne finale de 542,51 ± 7,27 µm. Une différence entre l’étude et le contrôle des yeux n'a été enregistré que lors de la visite 2 (11,26 ± 1,79 µm, p <0,001). De même, on a observé une augmentation significative de la PIO entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 15,37 ± 0,54 mmHg et 18,37 ± 0,54 mmHg, respectivement, ce qui correspond à une augmentation moyenne de 3,0 ± 0,49 mmHg (p <0,001). Une réduction significative de 2,83 ± 0,49 mmHg (p <0,001) a été observée entre les visites 2 et 3, avec une valeur moyenne de la PIO finale de 15,54 ± 0,54 mmHg. L’oeil de contrôle et d’étude ne différaient que lors de la visite 2 (1,91 ± 0,49 mmHg, p <0,001), ce qui confirme l'efficacité du traitement de l’APG. Lors de la visite 1, le biais de la PIO (PIOcc - PIO Goldmann) était similaire dans les deux groupes avec des valeurs moyennes de 4,1 ± 0,54 mmHg dans les yeux de contrôles et de 4,8 ± 0,54 mmHg dans les yeux d’études. Lors de la visite 2, après un lavage de 6 semaines d’APG, le biais de la PIO dans l'œil testé a été réduit à 1,6 ± 0,54 mmHg (p <0,001), ce qui signifie que la sous-estimation de la PIO par TAG était significativement moins dans la visite 2 que de la visite 1. La différence en biais PIO moyenne entre l'étude et le contrôle des yeux lors de la visite 2, en revanche, n'a pas atteint la signification statistique (p = 0,124). On a observé une augmentation peu significative de 1,53 ± 0,60 mmHg (p = 0,055) entre les visites 2 et 3 dans les yeux de l'étude, avec une valeur de polarisation finale de la PIO moyenne de 3,10 ± 0,54 mmHg dans les yeux d'études et de 2,8 ± 0,54 mmHg dans les yeux de contrôles. Nous avons ensuite cherché à déterminer si une faible HC a été associée à un stade de glaucome plus avancé chez nos patients atteints du glaucome à angle ouvert traités avec l’APG. Lorsque l'on considère tous les yeux sur l’APG au moment de la première visite, aucune association n'a été trouvée entre les dommages sur le CV et l'HC. Cependant, si l'on considère seulement les yeux avec un glaucome plus avancé, une corrélation positive significative a été observée entre la DM et l'HC (B = 0,65, p = 0,003). Une HC inférieure a été associé à une valeur de DM de champ visuelle plus négative et donc plus de dommages liés au glaucome. Conclusions : Les prostaglandines topiques affectent les propriétés biomécaniques de la cornée. Ils réduisent l'hystérèse cornéenne, le facteur de résistance cornéen et l'épaisseur centrale de la cornée. On doit tenir compte de ces changements lors de l'évaluation des effets d’APG sur la PIO. Plus de recherche devrait être menées pour confirmer nos résultats. De plus, d’autres études pourraient être réalisées en utilisant des médicaments qui diminuent la PIO sans influencer les propriétés biomécaniques de la cornée ou à l'aide de tonomètre dynamique de Pascal ou similaire qui ne dépend pas des propriétés biomécaniques de la cornée. En ce qui concerne l'interaction entre les dommages de glaucome et l'hystérésis de la cornée, nous pouvons conclure qu' une HC inférieure a été associé à une valeur de DM de CV plus négative. Mots Clés glaucome - analogues de prostaglandines - hystérèse cornéenne – l’épaisseur de la cornée centrale - la pression intraoculaire - propriétés biomécaniques de la cornée.
Resumo:
An open cell photoacoustic (PA) configuration has been employed to evaluate the thermal diffusivity of intrinsic InP as well as InP doped with tin and iron. Thermal diffusivity data have been evaluated from variation of phase of PA signal as a function of modulation frequency. In doped samples, we observe a reduced value for thermal diffusivity in comparison with intrinsic InP. We also observed that, while the phase of the PA signal varies linearly with the square root of chopping frequency for doped samples, the intrinsic material does not exhibit such behaviour in the experimental frequency range. These results have been interpreted in terms of the heat generation and phonon assisted heat diffusion mechanisms in semiconductors.
Resumo:
There is very little information on the subtidal bottom fauna of the shelf regions in the seas around India. What little is known is restricted to macro benthos. The paucity of the work on bottom fauna and the importance of mud banks in the fishery of the South West Coast of India has initiated the present study. Attempts have been made to obtain a picture of the bottom fauna of a mud bank region of the Kerala Coast. The difficulties involved in the sampling and analysis, especially the availability of a suitable vessel during the S.W. Monsoon, resulted in the work being restricted mainly to the Narakal mud bank region 6 Km. north of Cochin Detailed sampling is conducted using grab, dredge and to a small extent beam trawl, to assess the qualitative and quantitative nature of the macro benthos. Important species contributing to the fauna are identified and the standing crop estimated for different seasons. The meiobenthos was studied using core samples taken from the grab. Animals were identified to the major taxa. Standing crop of meiobenthos and the quantitative importance of different groups were also studied. The data collected have been interpreted and discussed. As an understanding of the physico-chemical aspects of the environment is essential in order to obtain a true picture of the benthos, attempts were made in this direction. Environmental parameters such as temperature of the sediment, salinity, temperature, and dissolved oxygen in the overlying water were studied .during the period of benthos investigation. Monthly observations on the dissolved inorganic and organic phosphorus in the area of investigation have been made. The physico-chemical nature of the sediment was also studied. Influence of these ecological variables on the bottom fauna is discussed.
Resumo:
A novel compact RFID tag employing open stubs in a microstrip transmission line is proposed. The prototype of the tag is fabricated on a substrate of dielectric constant 4.4 and loss tangent 0.0018. The tag consists of microstrip open stub resonators and cross polarized transmitting and receiving disc monopole antennas. A prototype of 8 bit data encoded tag is demonstrated in this communication. Method for enhancing the performance of the RFID tag is also proposed. Magnitude or group delay response can be used to decode the tag informations
Resumo:
Bank switching in embedded processors having partitioned memory architecture results in code size as well as run time overhead. An algorithm and its application to assist the compiler in eliminating the redundant bank switching codes introduced and deciding the optimum data allocation to banked memory is presented in this work. A relation matrix formed for the memory bank state transition corresponding to each bank selection instruction is used for the detection of redundant codes. Data allocation to memory is done by considering all possible permutation of memory banks and combination of data. The compiler output corresponding to each data mapping scheme is subjected to a static machine code analysis which identifies the one with minimum number of bank switching codes. Even though the method is compiler independent, the algorithm utilizes certain architectural features of the target processor. A prototype based on PIC 16F87X microcontrollers is described. This method scales well into larger number of memory blocks and other architectures so that high performance compilers can integrate this technique for efficient code generation. The technique is illustrated with an example
Resumo:
Software systems are progressively being deployed in many facets of human life. The implication of the failure of such systems, has an assorted impact on its customers. The fundamental aspect that supports a software system, is focus on quality. Reliability describes the ability of the system to function under specified environment for a specified period of time and is used to objectively measure the quality. Evaluation of reliability of a computing system involves computation of hardware and software reliability. Most of the earlier works were given focus on software reliability with no consideration for hardware parts or vice versa. However, a complete estimation of reliability of a computing system requires these two elements to be considered together, and thus demands a combined approach. The present work focuses on this and presents a model for evaluating the reliability of a computing system. The method involves identifying the failure data for hardware components, software components and building a model based on it, to predict the reliability. To develop such a model, focus is given to the systems based on Open Source Software, since there is an increasing trend towards its use and only a few studies were reported on the modeling and measurement of the reliability of such products. The present work includes a thorough study on the role of Free and Open Source Software, evaluation of reliability growth models, and is trying to present an integrated model for the prediction of reliability of a computational system. The developed model has been compared with existing models and its usefulness of is being discussed.