975 resultados para literature-data integration
Resumo:
La surveillance de l’influenza s’appuie sur un large spectre de données, dont les données de surveillance syndromique provenant des salles d’urgences. De plus en plus de variables sont enregistrées dans les dossiers électroniques des urgences et mises à la disposition des équipes de surveillance. L’objectif principal de ce mémoire est d’évaluer l’utilité potentielle de l’âge, de la catégorie de triage et de l’orientation au départ de l’urgence pour améliorer la surveillance de la morbidité liée aux cas sévères d’influenza. Les données d’un sous-ensemble des hôpitaux de Montréal ont été utilisées, d’avril 2006 à janvier 2011. Les hospitalisations avec diagnostic de pneumonie ou influenza ont été utilisées comme mesure de la morbidité liée aux cas sévères d’influenza, et ont été modélisées par régression binomiale négative, en tenant compte des tendances séculaires et saisonnières. En comparaison avec les visites avec syndrome d’allure grippale (SAG) totales, les visites avec SAG stratifiées par âge, par catégorie de triage et par orientation de départ ont amélioré le modèle prédictif des hospitalisations avec pneumonie ou influenza. Avant d’intégrer ces variables dans le système de surveillance de Montréal, des étapes additionnelles sont suggérées, incluant l’optimisation de la définition du syndrome d’allure grippale à utiliser, la confirmation de la valeur de ces prédicteurs avec de nouvelles données et l’évaluation de leur utilité pratique.
Resumo:
L’intégration des TIC a connu un essor considérable dans les dernières années et des chercheurs à travers le monde y accordent une importance sans cesse croissante ; le sujet des TIC en éducation est ainsi répandu au sein des écrits depuis maintenant plusieurs années (Istance & Kools, 2013; Storz & Hoffman, 2013). Dans un monde où les technologies sont omniprésentes dans la plupart des sphères d’activités, il ne s’agit plus de savoir si les technologies doivent être intégrées dans les activités d’enseignement et d’apprentissage, mais bien de quelle façon elles doivent l’être. Comme les TIC présentent de nombreux avantages, notamment en ce qui concerne la motivation scolaire et la réduction du fossé numérique, les différents intervenants du monde de l’éducation sont généralement conscients de l’importance de bien utiliser les technologies de l’information et de la communication (TIC) en éducation, mais ne savent pas toujours par où commencer. La présente recherche s’intéresse à une forme particulière d’intégration des TIC en éducation, soit les projets portables. Les projets portables se différencient par le fait que l’enseignant et chaque élève disposent de leur propre ordinateur portable dans le but d’une utilisation pédagogique. Cette thèse de doctorat tente de détailler, à travers un langage clair et accessible, les défis qu’il est possible de rencontrer à l’intérieur de tels projets, de même que ce qui peut être fait pour en limiter les impacts. En vue de déterminer les conditions pouvant favoriser le succès global des projets portables au Québec, voire ailleurs, une recension des écrits exhaustive a permis de relever quatre catégories de facteurs principales dans lesquelles l’ensemble des défis identifiés semblent pouvoir être classés : les facteurs relatifs à la gestion du projet, les facteurs internes à l’enseignant, les facteurs relatifs au cadre de travail de même que les facteurs relatifs à l’infrastructure et au matériel. Ces diverses catégories de facteurs sont abordées en détails à l’intérieur du cadre théorique de cette thèse de doctorat. En vue d’atteindre les objectifs, un questionnaire a été mis au point et plus de 300 enseignants d’une commission scolaire où a lieu un projet portable à grand déploiement y ont répondu. Les données de nature mixte (données quantitatives et qualitatives) ont été analysées à l’aide de logiciels spécialisés et ceci a permis de vérifier la pertinence des éléments rencontrés dans la recension des écrits, de même que d’en découvrir de nouveaux. Il a été trouvé que de nombreux défis sont susceptibles d’être rencontrés. Les plus importants ont trait à la qualité du matériel utilisé, à l’importance de la formation des enseignants relativement aux TIC, et à l’importance de mettre au point une vision claire assurant la pleine adhésion des enseignants. Il a aussi été déterminé que l’enseignant doit pouvoir accéder à un soutien pédagogique ainsi qu’à un soutien technique facilement. Enfin, il a été découvert que la nature des projets à grand déploiement fait en sorte qu’il importe de porter une attention particulière aux besoins locaux des enseignants, qui peuvent varier selon le contexte de travail de ceux-ci.
Resumo:
Le développement de la nutrigénétique/nutrigénomique (NGx) a suscité de nombreuses attentes puisque les retombées qui lui sont associées s’avèrent potentiellement bénéfiques autant pour les individus en santé que pour les individus malades. De grandes attentes avaient également été associées au Projet de décryptage du Génome Humain (PGH). Aujourd’hui, seules quelques attentes de celles envisagées se sont concrétisées. Le PGH a donc évolué dans un contexte marqué par du biohype, soit la promotion d’attentes exagérées, voir irréalistes. Étant donné l’importance des attentes associées avec le développement de la NGx et des limites méthodologiques auxquelles fait encore face la recherche clinique conduite dans ce domaine, l’objectif principal de cette thèse est de déterminer si les publications scientifiques rapportant des résultats de recherches cliniques effectuées en NGx contribuent à l’émergence d’un phénomène de biohype. Plus spécifiquement, il s’agira également de documenter la perception des chercheurs oeuvrant dans le domaine de la NGx du phénomène de biohype, d’identifier certains facteurs qui pourraient expliquer son émergence dans la littérature scientifique propre à ce domaine et de proposer des pistes d’actions pour limiter les risques associés à ce phénomène. Nous avons tout d’abord procédé à une analyse documentaire d’articles scientifiques rapportant des résultats issus de recherches cliniques en NGx. Celle-ci nous a révélé que plusieurs bénéfices étaient promus dans cette littérature alors même que les limites méthodologiques n’étaient pas d’emblée présentées et discutées. Cette observation nous portait à croire que ces bénéfices étant potentiellement prématurés. Nous avons ensuite voulu valider notre constat auprès des chercheurs œuvrant principalement dans le domaine de la NGx. Cette enquête nous a permis de constater que les chercheurs étaient généralement en accord avec les bénéfices que nous avons recensés dans les articles scientifiques. Toutefois, ils n’envisageaient pas leur concrétisation à moyen terme. Par ailleurs, cette enquête nous a également révélé que les limitations méthodologiques actuellement rencontrées dans la conduite de recherches cliniques soulevaient des doutes quant à la faisabilité des bénéfices promut dans les articles scientifiques. Ces données viennent confirmer notre observation à savoir qu’un phénomène de biohype serait réellement en émergence dans les articles scientifiques rapportant des résultats de recherches cliniques en NGx. Outre des informations concernant les publics ciblés par les chercheurs et les éléments que doivent contenir un article scientifique, cette enquête nous a également aidés à mieux comprendre les avantages associés à la promotion de bénéfices. Selon la majorité des chercheurs interrogés, la promotion de bénéfices dans un article scientifique augmenterait les chances d’un manuscrit d’être publié et favoriserait la continuité du financement du domaine de recherche. Cette activité étant caractérisée par un environnement compétitif, la promotion de bénéfices semble être une avenue à envisager pour se démarquer. Quoique la promotion de bénéfices prématurés ou exagérés ne soit pas considérée comme de l’inconduite scientifique, elle peut causer entre autres un affaiblissement du sentiment de confiance entre le public et les chercheurs et ultimement, contrevenir à la continuité d’une saine activité de recherche. À la lumière de ces données, nous croyons qu’une des stratégies qui permettrait de prévenir l’apparition des risques associés au phénomène de biohype serait de sensibiliser les chercheurs et les éditeurs de journaux scientifiques à ces derniers. Plus particulièrement, nous encourageons l’intégration de lignes directrices portant sur la gestion du biohype dans les codes de conduites qui ont été mis en place pour favoriser les bonnes pratiques en recherche.
Resumo:
Cet article s'intéresse aux processus de clarification des rôles professionnels lors de l'intégration d'une infirmière praticienne spécialisée dans les équipes de première ligne au Québec.
Resumo:
Refus global, le recueil, n’est pas « Refus global », le texte rédigé par Paul-Émile Borduas et cosigné par 15 membres du groupe automatiste. Partant de cette distinction entre le recueil automatiste et son texte éponyme et du constat selon lequel la partie éclipse le tout dans le discours critique, cette thèse a pour objectif d’expliquer l’occultation du recueil dans l’histoire sociale et artistique québécoise. À partir de l’étude de la réception de 1948 à 2008, j’interroge la constitution du récit commun entourant l’œuvre, duquel le recueil est exclu. Il s’agit donc de mettre au jour les obstacles qui se sont présentés dans le parcours de réception du recueil, nuisant à la formation d’un discours unifié et cohérent à son sujet et l’empêchant de s’inscrire dans l’histoire. Dégagés de l’étude du corpus composé de 639 objets sémiotiques secondaires (OSS, selon le concept proposé par Brigitte Louichon), les obstacles à la réception du recueil relèvent à la fois de facteurs pragmatiques, telles la composition hétérogène de l’œuvre ou sa disponibilité; de facteurs institutionnels ou historiographiques, comme la disciplinarisation du champ culturel ou l’impact du récit de la Révolution tranquille sur l’histoire littéraire; et de facteurs humains, reposant sur le rôle des auteurs et de certains critiques dans l’accueil réservé à l’œuvre. Les différentes étapes de la réception sont ainsi considérées : de l’horizon d’attente (Jauss) à la réception productive (Link), en passant par la publication, les premières critiques, les rééditions, les lectures savantes, l’historicisation et l’entrée de l’œuvre dans la mémoire à titre de symbole ou d’hypotexte. Or, plutôt qu’à ce parcours de réception exemplaire, c’est son envers qui est interrogé ici, c’est-à-dire les difficultés et les déviations de la réception du recueil Refus global. Cette thèse est divisée en trois parties. La première, théorique et méthodologique, situe mon propos dans les domaines de l’histoire culturelle et des études de réception, et présente diverses considérations concernant la constitution du corpus et le traitement des données. La deuxième aborde l’horizon d’attente et la première réception, moment crucial pour la survie de l’œuvre, comme l’ont montré Hans Robert Jauss et Daniel Chartier. On y observe notamment l’effet de verrou (Cambron) qu’a le renvoi de Borduas sur la constitution du récit de réception, de même que les critères éthiques et esthétiques en fonction desquels s’est opérée la hiérarchisation des composantes du recueil. La troisième partie couvre la réception subséquente (1950-2008). À l’étude des obstacles empêchant l’intégration du recueil dans l’histoire s’ajoute alors l’étude des réceptions parallèles, parcellaires et autonomes dont a bénéficié Refus global pour survivre – ponctuellement et partiellement – en dehors du récit commun formé autour de « Refus global ». Avec les différentes catégories d’OSS (directs, indirects, hypertextuels, métacritiques et parcellaires), ces trois types de réception font partie des outils heuristiques développés dans le but d’expliquer la réception partielle dont a fait l’objet le recueil. Selon l’approche quantitative et environnementaliste de l’histoire culturelle, Refus global est envisagé comme un microcosme de la culture, dans lequel certaines œuvres sont retenues et d’autres négligées. L’analyse d’un corpus critique large et varié permet ainsi de saisir non seulement les phénomènes conduisant à la consécration du texte éponyme ou à l’oubli relatif du recueil, mais aussi les tendances critiques, les parutions marginales, les critiques isolées, etc. qui, enfouies dans les angles morts de la réception, offrent au recueil et à ses composantes des voies de contournement du discours dominant. En somme, l’étude de la réception du recueil Refus global a permis à la fois de déplacer la focalisation critique depuis « Refus global » vers Refus global, de développer des outils pour envisager la réception d’œuvres marginalisées et de mettre en évidence des critères privilégiés dans la constitution de l’histoire et de la mémoire culturelles québécoises depuis 1948.
Resumo:
La scoliose idiopathique de l’adolescent (SIA) est une déformation tri-dimensionelle du rachis. Son traitement comprend l’observation, l’utilisation de corsets pour limiter sa progression ou la chirurgie pour corriger la déformation squelettique et cesser sa progression. Le traitement chirurgical reste controversé au niveau des indications, mais aussi de la chirurgie à entreprendre. Malgré la présence de classifications pour guider le traitement de la SIA, une variabilité dans la stratégie opératoire intra et inter-observateur a été décrite dans la littérature. Cette variabilité s’accentue d’autant plus avec l’évolution des techniques chirurgicales et de l’instrumentation disponible. L’avancement de la technologie et son intégration dans le milieu médical a mené à l’utilisation d’algorithmes d’intelligence artificielle informatiques pour aider la classification et l’évaluation tridimensionnelle de la scoliose. Certains algorithmes ont démontré être efficace pour diminuer la variabilité dans la classification de la scoliose et pour guider le traitement. L’objectif général de cette thèse est de développer une application utilisant des outils d’intelligence artificielle pour intégrer les données d’un nouveau patient et les évidences disponibles dans la littérature pour guider le traitement chirurgical de la SIA. Pour cela une revue de la littérature sur les applications existantes dans l’évaluation de la SIA fut entreprise pour rassembler les éléments qui permettraient la mise en place d’une application efficace et acceptée dans le milieu clinique. Cette revue de la littérature nous a permis de réaliser que l’existence de “black box” dans les applications développées est une limitation pour l’intégration clinique ou la justification basée sur les évidence est essentielle. Dans une première étude nous avons développé un arbre décisionnel de classification de la scoliose idiopathique basé sur la classification de Lenke qui est la plus communément utilisée de nos jours mais a été critiquée pour sa complexité et la variabilité inter et intra-observateur. Cet arbre décisionnel a démontré qu’il permet d’augmenter la précision de classification proportionnellement au temps passé à classifier et ce indépendamment du niveau de connaissance sur la SIA. Dans une deuxième étude, un algorithme de stratégies chirurgicales basé sur des règles extraites de la littérature a été développé pour guider les chirurgiens dans la sélection de l’approche et les niveaux de fusion pour la SIA. Lorsque cet algorithme est appliqué à une large base de donnée de 1556 cas de SIA, il est capable de proposer une stratégie opératoire similaire à celle d’un chirurgien expert dans prêt de 70% des cas. Cette étude a confirmé la possibilité d’extraire des stratégies opératoires valides à l’aide d’un arbre décisionnel utilisant des règles extraites de la littérature. Dans une troisième étude, la classification de 1776 patients avec la SIA à l’aide d’une carte de Kohonen, un type de réseaux de neurone a permis de démontrer qu’il existe des scoliose typiques (scoliose à courbes uniques ou double thoracique) pour lesquelles la variabilité dans le traitement chirurgical varie peu des recommandations par la classification de Lenke tandis que les scolioses a courbes multiples ou tangentielles à deux groupes de courbes typiques étaient celles avec le plus de variation dans la stratégie opératoire. Finalement, une plateforme logicielle a été développée intégrant chacune des études ci-dessus. Cette interface logicielle permet l’entrée de données radiologiques pour un patient scoliotique, classifie la SIA à l’aide de l’arbre décisionnel de classification et suggère une approche chirurgicale basée sur l’arbre décisionnel de stratégies opératoires. Une analyse de la correction post-opératoire obtenue démontre une tendance, bien que non-statistiquement significative, à une meilleure balance chez les patients opérés suivant la stratégie recommandée par la plateforme logicielle que ceux aillant un traitement différent. Les études exposées dans cette thèse soulignent que l’utilisation d’algorithmes d’intelligence artificielle dans la classification et l’élaboration de stratégies opératoires de la SIA peuvent être intégrées dans une plateforme logicielle et pourraient assister les chirurgiens dans leur planification préopératoire.
Resumo:
Multivariate lifetime data arise in various forms including recurrent event data when individuals are followed to observe the sequence of occurrences of a certain type of event; correlated lifetime when an individual is followed for the occurrence of two or more types of events, or when distinct individuals have dependent event times. In most studies there are covariates such as treatments, group indicators, individual characteristics, or environmental conditions, whose relationship to lifetime is of interest. This leads to a consideration of regression models.The well known Cox proportional hazards model and its variations, using the marginal hazard functions employed for the analysis of multivariate survival data in literature are not sufficient to explain the complete dependence structure of pair of lifetimes on the covariate vector. Motivated by this, in Chapter 2, we introduced a bivariate proportional hazards model using vector hazard function of Johnson and Kotz (1975), in which the covariates under study have different effect on two components of the vector hazard function. The proposed model is useful in real life situations to study the dependence structure of pair of lifetimes on the covariate vector . The well known partial likelihood approach is used for the estimation of parameter vectors. We then introduced a bivariate proportional hazards model for gap times of recurrent events in Chapter 3. The model incorporates both marginal and joint dependence of the distribution of gap times on the covariate vector . In many fields of application, mean residual life function is considered superior concept than the hazard function. Motivated by this, in Chapter 4, we considered a new semi-parametric model, bivariate proportional mean residual life time model, to assess the relationship between mean residual life and covariates for gap time of recurrent events. The counting process approach is used for the inference procedures of the gap time of recurrent events. In many survival studies, the distribution of lifetime may depend on the distribution of censoring time. In Chapter 5, we introduced a proportional hazards model for duration times and developed inference procedures under dependent (informative) censoring. In Chapter 6, we introduced a bivariate proportional hazards model for competing risks data under right censoring. The asymptotic properties of the estimators of the parameters of different models developed in previous chapters, were studied. The proposed models were applied to various real life situations.
Resumo:
This thesis entitled Reliability Modelling and Analysis in Discrete time Some Concepts and Models Useful in the Analysis of discrete life time data.The present study consists of five chapters. In Chapter II we take up the derivation of some general results useful in reliability modelling that involves two component mixtures. Expression for the failure rate, mean residual life and second moment of residual life of the mixture distributions in terms of the corresponding quantities in the component distributions are investigated. Some applications of these results are also pointed out. The role of the geometric,Waring and negative hypergeometric distributions as models of life lengths in the discrete time domain has been discussed already. While describing various reliability characteristics, it was found that they can be often considered as a class. The applicability of these models in single populations naturally extends to the case of populations composed of sub-populations making mixtures of these distributions worth investigating. Accordingly the general properties, various reliability characteristics and characterizations of these models are discussed in chapter III. Inference of parameters in mixture distribution is usually a difficult problem because the mass function of the mixture is a linear function of the component masses that makes manipulation of the likelihood equations, leastsquare function etc and the resulting computations.very difficult. We show that one of our characterizations help in inferring the parameters of the geometric mixture without involving computational hazards. As mentioned in the review of results in the previous sections, partial moments were not studied extensively in literature especially in the case of discrete distributions. Chapters IV and V deal with descending and ascending partial factorial moments. Apart from studying their properties, we prove characterizations of distributions by functional forms of partial moments and establish recurrence relations between successive moments for some well known families. It is further demonstrated that partial moments are equally efficient and convenient compared to many of the conventional tools to resolve practical problems in reliability modelling and analysis. The study concludes by indicating some new problems that surfaced during the course of the present investigation which could be the subject for a future work in this area.
Resumo:
Reliability analysis is a well established branch of statistics that deals with the statistical study of different aspects of lifetimes of a system of components. As we pointed out earlier that major part of the theory and applications in connection with reliability analysis were discussed based on the measures in terms of distribution function. In the beginning chapters of the thesis, we have described some attractive features of quantile functions and the relevance of its use in reliability analysis. Motivated by the works of Parzen (1979), Freimer et al. (1988) and Gilchrist (2000), who indicated the scope of quantile functions in reliability analysis and as a follow up of the systematic study in this connection by Nair and Sankaran (2009), in the present work we tried to extend their ideas to develop necessary theoretical framework for lifetime data analysis. In Chapter 1, we have given the relevance and scope of the study and a brief outline of the work we have carried out. Chapter 2 of this thesis is devoted to the presentation of various concepts and their brief reviews, which were useful for the discussions in the subsequent chapters .In the introduction of Chapter 4, we have pointed out the role of ageing concepts in reliability analysis and in identifying life distributions .In Chapter 6, we have studied the first two L-moments of residual life and their relevance in various applications of reliability analysis. We have shown that the first L-moment of residual function is equivalent to the vitality function, which have been widely discussed in the literature .In Chapter 7, we have defined percentile residual life in reversed time (RPRL) and derived its relationship with reversed hazard rate (RHR). We have discussed the characterization problem of RPRL and demonstrated with an example that the RPRL for given does not determine the distribution uniquely
Resumo:
The major objective of the thesis is essentially to evolve and apply certain computational procedures to evaluate the structure and properties of some simple polyatomic molecules making use of spectroscopic data available from the literature. It must be said that though there is dwindling interest in recent times in such analyses, there exists tremendous scope and utility for attempting such calculations as the precision and reliability of'experimental techniques in spectroscopy have increased vastly due to enormous sophistication of the instruments used for these measurements. In the present thesis an attempt is made to extract maximum amount of information regarding the geometrical structure and interatmic forces of simple molecules from the experimental data on microwave and infrared spectra of these molecules
Assessment of Convective Activity Using Stability Indices as Inferred from Radiosonde and MODIS Data
Resumo:
The combined use of both radiosonde data and three-dimensional satellite derived data over ocean and land is useful for a better understanding of atmospheric thermodynamics. Here, an attempt is made to study the ther-modynamic structure of convective atmosphere during pre-monsoon season over southwest peninsular India utilizing satellite derived data and radiosonde data. The stability indices were computed for the selected stations over southwest peninsular India viz: Thiruvananthapuram and Cochin, using the radiosonde data for five pre- monsoon seasons. The stability indices studied for the region are Showalter Index (SI), K Index (KI), Lifted In-dex (LI), Total Totals Index (TTI), Humidity Index (HI), Deep Convective Index (DCI) and thermodynamic pa-rameters such as Convective Available Potential Energy (CAPE) and Convective Inhibition Energy (CINE). The traditional Showalter Index has been modified to incorporate the thermodynamics over tropical region. MODIS data over South Peninsular India is also used for the study. When there is a convective system over south penin-sular India, the value of LI over the region is less than −4. On the other hand, the region where LI is more than 2 is comparatively stable without any convection. Similarly, when KI values are in the range 35 to 40, there is a possibility for convection. The threshold value for TTI is found to be between 50 and 55. Further, we found that prior to convection, dry bulb temperature at 1000, 850, 700 and 500 hPa is minimum and the dew point tem-perature is a maximum, which leads to increase in relative humidity. The total column water vapor is maximum in the convective region and minimum in the stable region. The threshold values for the different stability indices are found to be agreeing with that reported in literature.
Resumo:
In the current study, epidemiology study is done by means of literature survey in groups identified to be at higher potential for DDIs as well as in other cases to explore patterns of DDIs and the factors affecting them. The structure of the FDA Adverse Event Reporting System (FAERS) database is studied and analyzed in detail to identify issues and challenges in data mining the drug-drug interactions. The necessary pre-processing algorithms are developed based on the analysis and the Apriori algorithm is modified to suit the process. Finally, the modules are integrated into a tool to identify DDIs. The results are compared using standard drug interaction database for validation. 31% of the associations obtained were identified to be new and the match with existing interactions was 69%. This match clearly indicates the validity of the methodology and its applicability to similar databases. Formulation of the results using the generic names expanded the relevance of the results to a global scale. The global applicability helps the health care professionals worldwide to observe caution during various stages of drug administration thus considerably enhancing pharmacovigilance
Resumo:
The evolution of coast through geological time scale is dependent on the transgression-regression event subsequent to the rise or fall of sea level. This event is accounted by investigation of the vertical sediment deposition patterns and their interrelationship for paleo-enviornmental reconstruction. Different methods like sedimentological (grain size and micro-morphological) and geochemical (elemental relationship) analyses as well as radiocarbon dating are generally used to decipher the sea level changes and paleoclimatic conditions of the Quaternary sediment sequence. For the Indian coast with a coastline length of about 7500 km, studies on geological and geomorphological signatures of sea level changes during the Quaternary were reported in general by researchers during the last two decades. However, for the southwest coast of India particularily Kerala which is famous for its coastal landforms comprising of estuaries, lagoons, backwaters, coastal plains, cliffs and barrier beaches, studies pertaining to the marine transgression-regression events in the southern region are limited. The Neendakara-Kayamkulam coastal stretch in central Kerala where the coast is manifested with shore parallel Kayamkulam Lagoon on one side and shore perpendicular Ashtamudi Estuary on the other side indicating existence of an uplifted prograded coastal margin followed by barrier beaches, backwater channels, ridge and runnel topography is an ideal site for studying such events. Hence the present study has been taken up in this context to address the gap area. The location for collection of core samples representing coastal plain, estuarylagoon and offshore regions have been identified based on published literature and available sedimentary records. The objectives of the research work are: To study the lithological variations and depositional environments of sediment cores along the coastal plain, estuary-lagoon and offshore regions between Kollam and Kayamkulam in the central Kerala coast To study the transportation and diagenetic history of sediments in the area To investigate the geochemical characterization of sediments and to elucidate the source-sink relationship To understand the marine transgression-regression events and to propose a conceptual model for the region The thesis comprises of 8 chapters. The first chapter embodies the preamble for the selection and significance of this research work. The study area is introduced with details on its physiographical, geological, geomorphological, rainfall and climate information. A review of literature, compiling the research on different aspects such as physico-chemical, geomorphological, tectonics, transgression-regression events are presented in the second chapter and they are broadly classified into three viz:- International, National and Kerala. The field data collection and laboratory analyses adopted in the research work are discussed in the third chapter. For collection of sediment core samples from the coastal plains, rotary drilling method was employed whereas for the estuary-lagoon and offshore locations the gravity/piston corer method was adopted. The collected subsurficial samples were analysed for texture, surface micro-texture, elemental analysis, XRD and radiocarbon dating techniques for age determination. The fourth chapter deals with the textural analysis of the core samples collected from various predefined locations of the study area. The result reveals that the Ashtamudi Estuary is composed of silty clay to clayey type of sediments whereas offshore cores are carpeted with silty clay to relict sand. Investigation of the source of sediments deposited in the coastal plain located on either side of the estuary indicates the dominance of terrigenous to marine origin in the southern region whereas it is predominantly of marine origin towards the north. Further the hydrodynamic conditions as well as the depositional enviornment of the sediment cores are elucidated based on statistical parameters that decipher the deposition pattern at various locations viz., coastal plain (open to closed basin), Ashtamudi Estuary (partially open to restricted estuary to closed basin) and offshore (open channel). The intensity of clay minerals is also discussed. From the results of radiocarbon dating the sediment depositional environments were deciphered.The results of the microtextural study of sediment samples (quartz grains) using Scanning Electron Microscope (SEM) are presented in the fifth chapter. These results throw light on the processes of transport and diagenetic history of the detrital sediments. Based on the lithological variations, selected quartz grains of different environments were also analysed. The study indicates that the southern coastal plain sediments were transported and deposited mechanically under fluvial environment followed by diagenesis under prolonged marine incursion. But in the case of the northern coastal plain, the sediments were transported and deposited under littoral environment indicating the dominance of marine incursion through mechanical as well as chemical processes. The quartz grains of the Ashtamudi Estuary indicate fluvial origin. The surface texture features of the offshore sediments suggest that the quartz grains are of littoral origin and represent the relict beach deposits. The geochemical characterisation of sediment cores based on geochemical classification, sediment maturity, palaeo-weathering and provenance in different environments are discussed in the sixth chapter. In the seventh chapter the integration of multiproxies data along with radiocarbon dates are presented and finally evolution and depositional history based on transgression–regression events is deciphered. The eighth chapter summarizes the major findings and conclusions of the study with recommendation for future work.
Resumo:
Futures trading in Commodities has three specific economic functions viz. price discovery, hedging and reduction in volatility. Natural rubber possesses all the specifications required for futures trading. Commodity futures trading in India attained momentum after the starting of national level commodity exchanges in 2003. The success of futures trading depends upon effective price risk management, price discovery and reduced volatility which in turn depends upon the volume of trading. In the case of rubber futures market, the volume of trading depends upon the extent of participation by market players like growers, dealers, manufacturers, rubber marketing co-operative societies and Rubber Producer’s Societies (RPS). The extent of participation by market players has a direct bearing on their awareness level and their perception about futures trading. In the light of the above facts and the review of literature available on rubber futures market, it is felt that a study on rubber futures market is necessary to fill the research gap, with specific focus on (1) the awareness and perception of rubber futures market participants viz. (i) rubber growers, (ii) dealers, (iii) rubber product manufacturers, (iv) rubber marketing co-operative societies and Rubber Producer’s Societies (RPS) about futures trading and (2) whether the rubber futures market is fulfilling the economic functions of futures market viz. hedging, reduction in volatility and price discovery or not. The study is confined to growers, dealers, rubber goods manufacturers, rubber marketing co-operative societies and RPS in Kerala. In order to achieve the stated objectives, the study utilized secondary data for the period from 2003 to 2013 from different published sources like bulletins, newsletters, circulars from NMCE, Reserve Bank of India (RBI), Warehousing Corporation and traders. The primary data required for this study were collected from rubber growers, rubber dealers, RPS & Rubber Marketing Co-operative Societies and rubber goods manufacturers in Kerala. Data pertaining to the awareness and perception of futures trading, participation in the futures trading, use of spot and futures prices and source of price information by dealers, farmers, manufacturers and cooperative societies also were collected. Statistical tools used for analysis include percentage, standard deviation, Chi-square test, Mann – Whitney U test, Kruskal Wallis test, Augmented Dickey – Fuller test statistic, t- statistic, Granger causality test, F- statistic, Johansen co – integration test, Trace statistic and Max –Eigen statistic. The study found that 71.5 per cent of the total hedges are effective and 28.5 per cent are ineffective for the period under study. It implies that futures market in rubber reduced the impact of price risks by approximately 71.5 per cent. Further, it is observed that, on 54.4 per cent occasions, the futures market exercised a stabilizing effect on the spot market, and on 45.6 per cent occasions futures trading exercised a destabilizing effect on the spot market. It implies that elasticity of expectation of futures market in rubber has a predominant stabilizing effect on spot prices. The market, as a whole, exhibits a bias in favour of long hedges. Spot price volatility of rubber during futures suspension period is more than that of the pre suspension period and post suspension period. There is a bi-directional association-ship or bi-directional causality or pair- wise causality between spot price and futures price of rubber. From the results of the hedging efficiency, spot price volatility, and price discovery, it can be concluded that rubber futures market fulfils all the economic functions expected from a commodity futures market. Thus in India, the future of rubber futures is Bright…!!!
Resumo:
In dieser Arbeit werden verschiedene Computermodelle, Rechenverfahren und Methoden zur Unterstützung bei der Integration großer Windleistungen in die elektrische Energieversorgung entwickelt. Das Rechenmodell zur Simulation der zeitgleich eingespeisten Windenergie erzeugt Summenganglinien von beliebig zusammengestellten Gruppen von Windenergieanlagen, basierend auf gemessenen Wind- und Leistungsdaten der nahen Vergangenheit. Dieses Modell liefert wichtige Basisdaten für die Analyse der Windenergieeinspeisung auch für zukünftige Szenarien. Für die Untersuchung der Auswirkungen von Windenergieeinspeisungen großräumiger Anlagenverbünde im Gigawattbereich werden verschiedene statistische Analysen und anschauliche Darstellungen erarbeitet. Das im Rahmen dieser Arbeit entwickelte Modell zur Berechnung der aktuell eingespeisten Windenergie aus online gemessenen Leistungsdaten repräsentativer Windparks liefert wertvolle Informationen für die Leistungs- und Frequenzregelung der Netzbetreiber. Die zugehörigen Verfahren zur Ermittlung der repräsentativen Standorte und zur Überprüfung der Repräsentativität bilden die Grundlage für eine genaue Abbildung der Windenergieeinspeisung für größere Versorgungsgebiete, basierend auf nur wenigen Leistungsmessungen an Windparks. Ein weiteres wertvolles Werkzeug für die optimale Einbindung der Windenergie in die elektrische Energieversorgung bilden die Prognosemodelle, die die kurz- bis mittelfristig zu erwartende Windenergieeinspeisung ermitteln. In dieser Arbeit werden, aufbauend auf vorangegangenen Forschungsarbeiten, zwei, auf Künstlich Neuronalen Netzen basierende Modelle vorgestellt, die den zeitlichen Verlauf der zu erwarten Windenergie für Netzregionen und Regelzonen mit Hilfe von gemessenen Leistungsdaten oder prognostizierten meteorologischen Parametern zur Verfügung stellen. Die softwaretechnische Zusammenfassung des Modells zur Berechnung der aktuell eingespeisten Windenergie und der Modelle für die Kurzzeit- und Folgetagsprognose bietet eine attraktive Komplettlösung für die Einbindung der Windenergie in die Leitwarten der Netzbetreiber. Die dabei entwickelten Schnittstellen und die modulare Struktur des Programms ermöglichen eine einfache und schnelle Implementierung in beliebige Systemumgebungen. Basierend auf der Leistungsfähigkeit der Online- und Prognosemodelle werden Betriebsführungsstrategien für zu Clustern im Gigawattbereich zusammengefasste Windparks behandelt, die eine nach ökologischen und betriebswirtschaftlichen Gesichtspunkten sowie nach Aspekten der Versorgungssicherheit optimale Einbindung der geplanten Offshore-Windparks ermöglichen sollen.