947 resultados para inductive inference
Resumo:
Il s'agit d'une hypothèse largement répandue que l’égo-dystonie et l’égo-syntonie caractérisent les obsessions dans les troubles des conduites alimentaires (TCA) et que ces facteurs sont cliniquement pertinents pour la conceptualisation et le traitement des TCA. Cependant, les résultats empiriques sur ce sujet sont rares. Compte tenu du chevauchement reconnu entre les TCA, notamment l'anorexie et la boulimie (BN), et le trouble obsessionnel-compulsif (TOC) dans la phénoménologie et les caractéristiques psychologiques, un programme de thérapie cognitive basée sur les inférences (TBI) de 24 semaines, démontré efficace dans le traitement des TOC, a été adapté pour traiter les TCA. La recherche sur le TOC suggère que la transformation des pensées intrusives en obsessions est liée à la mesure dans laquelle les pensées intrusives menacent des perceptions fondamentales du soi et de l’identité. Cette thèse a pour objectif d'examiner le lien entre l’égo-dystonie et les TCA. Pour se faire, nous avons exploré le lien entre la nature égo-dystone des obsessions chez les patients souffrant d'un TCA et la peur de l'image de soi. Nous avons également étudié la relation entre la sévérité des symptômes TCA et l’égo-dystonie dans les obsessions. En outre, nous avons investigué les différences dans la présence de pensées égo-dystones et de peur face à son identité entre des sujets non-cliniques et des personnes atteintes d’un TCA. Enfin, nous avons comparé le degré d’égo-dystonie dans les pensées de personnes atteintes d’un TCA à celui dans les pensées d’individus souffrant d’un TOC. L’égo-dystonie dans les pensées a été mesurée par l'Ego Dystonicity Questionnaire (EDQ) et le degré de peur face à l’identité a été mesuré par le Fear of Self Questionnaire (FSQ) d’une part dans un échantillon de femmes souffrant d’un TCA (n = 57) et d’autre part dans un échantillon de participantes non-cliniques (n = 45). Les résultats révèlent que l’égo-dystonie et la peur face à l’identité étaient fortement corrélées à la fois dans l’échantillon clinique et non-clinique. Les scores de l’EDQ n’étaient pas significativement corrélés à la sévérité des symptômes TCA à l'exception de la sous-échelle d’irrationalité de l’EDQ qui était fortement associée à la sévérité des comportements compulsifs compensatoires. Les participantes souffrant d'un TCA avaient des scores significativement plus élevés à l’EDQ et au FSQ que les sujets non-cliniques. Ensuite, une étude de cas décrit l’application du programme de thérapie cognitive TBI pour une femme de 35 ans avec un diagnostic de BN. La pathologie TCA s’est significativement améliorée au cours de la TBI et six mois suivant la thérapie. Cette étude de cas met en évidence l'importance de cibler les idées surévaluées, les doutes et le raisonnement face au soi et à l’identité dans le traitement psychologique pour les TCA. Enfin, l’objectif final de cette thèse était d’examiner les changements au niveau (1) des symptômes TCA, (2) du degré d’égo-syntonie dans les obsessions, et (3) des mesures de peur face à l’identité, de motivation, d’humeur et d’anxiété au cours de la TBI et au suivi post six mois. L’égo-dystonie, la peur face à l’identité, les symptômes TCA et le stade motivationnel ont été mesurés chez 15 femmes souffrant de BN au cours du traitement et six mois après la TBI. Quatre vingt pourcent de l’échantillon, soit 12 des 15 participantes, ont démontré une diminution cliniquement significative des symptômes TCA et 53% ont cessé leurs comportements compensatoires au suivi post six mois. Les retombées cliniques relatives au traitement des TCA sont discutées.
Resumo:
La démarche scientifique (ou expérimentale) en milieu scolaire nécessite des savoir-faire expérimentaux qui ne s’acquièrent habituellement qu’en présentiel, c’est-à-dire en laboratoire institutionnel où l’enseignant ou le technicien sont présents et peuvent, à tout moment, assister pleinement l’apprenant dans sa démarche d’investigation scientifique et technologique. Ils peuvent l’orienter, le diriger, susciter sa réflexion, faire des démonstrations réelles ou contrôler son expérimentation en lui montrant comment paramétrer les outils d’expérimentation assistée par ordinateur (ExAO). Pour répondre aux besoins de la formation à distance, cette recherche de développement en didactique des sciences et de la technologie propose de mettre à la disposition des apprenants et des enseignants un environnement de laboratoire informatisé, contrôlé et assisté à distance. Cet environnement, axé sur un microlaboratoire d’ExAO (MicrolabExAO), que nous avons nommé Ex@O pour le distinguer, a été testé de manière fonctionnelle, puis évalué en situation réelle par des étudiants-maîtres et des élèves de l’éducation des adultes qui ont pratiqué et expérimenté la démarche scientifique, en situation de laboratoire réel, mais à distance. Pour ce faire, nous avons couplé le logiciel MicrolabExAO à un logiciel de prise en main à distance avec outils audio et vidéo (Teamviewer). De plus, nous avons créé et inséré, dans le logiciel MicrolabExAO, une aide en ligne pour télécharger et faciliter la prise en main à distance. Puisque cet environnement Ex@O permet de multiplier les contacts des apprenants avec une expérimentation concrète, ce prototype répond bien à l’un des objectifs du Programme de formation de l’école québécoise (PFEQ) qui est de rendre l’apprenant plus actif dans ses apprentissages. Et parce que ce premier prototype d’environnement Ex@O permet d’effectuer des activités en laboratoire à distance, nous avons pu vérifier qu’il met aussi l’accent, non seulement sur les savoirs, mais également sur les savoir-faire expérimentaux en sciences et technologie, traditionnellement développés dans les locaux des laboratoires institutionnels. Notons ici que la démarche expérimentale s’acquiert très majoritairement en laboratoire en pratiquant, souvent et régulièrement, le processus inductif et déductif propre à cette démarche. Cette pratique de la démarche expérimentale, à distance, avec la technologie Ex@O qui l’accompagne, nous a permis de vérifier que celle-ci était possible, voire comparable à la réalisation, pas-à-pas, d’un protocole expérimental effectué dans un laboratoire institutionnel.
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
Essai doctoral présenté à la Faculté des Arts et des Sciences Humaines en vue de l'obtention du grade de doctorat en psychologie clinique (D.Psy)
Resumo:
Cette thèse-filmique s'articule autour de deux questions principales : comment aborder l’articulation des différences (qu’elles soient d’ordre genré, sexuel, culturel, racial, physique ou subjectif) telles qu'elles se retrouvent spécifiquement dans certains films québécois ; et, dans quelle mesure l’étude critique des différences permettent-elles de concevoir le cinéma comme un régime de la représentation (Hall 1997a) québécois articulé autour de certaines normativités (Butler, 2004)? On retrouve dans la littérature sur le cinéma québécois des préoccupations sur les questions associées à l’identité nationale liées avec des pratiques de différenciations identitaires et sociales (Poirier, 2004a, 2004b; Boulais, 2006; Barrette, 2009; Juteau et Fontaine, 1996) renvoyant à une opposition entre « nous/soi » et « l’Autre ». Afin de répondre à une urgence politique de considérer autrement ces questions, j’ai adopté une posture intersectionnelle (Bilge, 2009). L’intersectionnalité me permet d’aborder les différences de façon inductive afin d’ouvrir une discussion intégrée sur les rapports de pouvoir et l’articulation des oppressions. À ce sujet, je considère qu’une lutte de pouvoir autour de la représentation (Hall, 1997a; du Gay et al., 1997) s’inscrit dans une lutte plus large concernant des rapports de force dans la société québécoise. Inspirée par les théories queer et féministes, les études cinématographiques et les Cultural Studies, j’ai développé une méthodologie autoethnographique au sein d’une méthodologie de recherche-création (Sawchuk et Chapman, 2012). L’intermédialité de mon projet permet de nouvelles possibilités (Mariniello, 2000) notamment en créant un espace de réflexion favorisant l’échange entre diverses voix et expériences, mais également en brouillant les frontières méthodologiques et médiatiques de ma démarche, permettant d’approfondir de façon intuitive et exploratoire le concept de la rencontre. En effet, la rencontre et l’expérience de la rencontre ont joué un rôle à la fois conceptuel et personnel dans ce projet. Elle me permet d’éviter de fixer la différence, et plutôt de l’aborder dans son processus de reconnaissance et d’émergence d’une identité.
Resumo:
Cette thèse comporte trois articles dont un est publié et deux en préparation. Le sujet central de la thèse porte sur le traitement des valeurs aberrantes représentatives dans deux aspects importants des enquêtes que sont : l’estimation des petits domaines et l’imputation en présence de non-réponse partielle. En ce qui concerne les petits domaines, les estimateurs robustes dans le cadre des modèles au niveau des unités ont été étudiés. Sinha & Rao (2009) proposent une version robuste du meilleur prédicteur linéaire sans biais empirique pour la moyenne des petits domaines. Leur estimateur robuste est de type «plugin», et à la lumière des travaux de Chambers (1986), cet estimateur peut être biaisé dans certaines situations. Chambers et al. (2014) proposent un estimateur corrigé du biais. En outre, un estimateur de l’erreur quadratique moyenne a été associé à ces estimateurs ponctuels. Sinha & Rao (2009) proposent une procédure bootstrap paramétrique pour estimer l’erreur quadratique moyenne. Des méthodes analytiques sont proposées dans Chambers et al. (2014). Cependant, leur validité théorique n’a pas été établie et leurs performances empiriques ne sont pas pleinement satisfaisantes. Ici, nous examinons deux nouvelles approches pour obtenir une version robuste du meilleur prédicteur linéaire sans biais empirique : la première est fondée sur les travaux de Chambers (1986), et la deuxième est basée sur le concept de biais conditionnel comme mesure de l’influence d’une unité de la population. Ces deux classes d’estimateurs robustes des petits domaines incluent également un terme de correction pour le biais. Cependant, ils utilisent tous les deux l’information disponible dans tous les domaines contrairement à celui de Chambers et al. (2014) qui utilise uniquement l’information disponible dans le domaine d’intérêt. Dans certaines situations, un biais non négligeable est possible pour l’estimateur de Sinha & Rao (2009), alors que les estimateurs proposés exhibent un faible biais pour un choix approprié de la fonction d’influence et de la constante de robustesse. Les simulations Monte Carlo sont effectuées, et les comparaisons sont faites entre les estimateurs proposés et ceux de Sinha & Rao (2009) et de Chambers et al. (2014). Les résultats montrent que les estimateurs de Sinha & Rao (2009) et de Chambers et al. (2014) peuvent avoir un biais important, alors que les estimateurs proposés ont une meilleure performance en termes de biais et d’erreur quadratique moyenne. En outre, nous proposons une nouvelle procédure bootstrap pour l’estimation de l’erreur quadratique moyenne des estimateurs robustes des petits domaines. Contrairement aux procédures existantes, nous montrons formellement la validité asymptotique de la méthode bootstrap proposée. Par ailleurs, la méthode proposée est semi-paramétrique, c’est-à-dire, elle n’est pas assujettie à une hypothèse sur les distributions des erreurs ou des effets aléatoires. Ainsi, elle est particulièrement attrayante et plus largement applicable. Nous examinons les performances de notre procédure bootstrap avec les simulations Monte Carlo. Les résultats montrent que notre procédure performe bien et surtout performe mieux que tous les compétiteurs étudiés. Une application de la méthode proposée est illustrée en analysant les données réelles contenant des valeurs aberrantes de Battese, Harter & Fuller (1988). S’agissant de l’imputation en présence de non-réponse partielle, certaines formes d’imputation simple ont été étudiées. L’imputation par la régression déterministe entre les classes, qui inclut l’imputation par le ratio et l’imputation par la moyenne sont souvent utilisées dans les enquêtes. Ces méthodes d’imputation peuvent conduire à des estimateurs imputés biaisés si le modèle d’imputation ou le modèle de non-réponse n’est pas correctement spécifié. Des estimateurs doublement robustes ont été développés dans les années récentes. Ces estimateurs sont sans biais si l’un au moins des modèles d’imputation ou de non-réponse est bien spécifié. Cependant, en présence des valeurs aberrantes, les estimateurs imputés doublement robustes peuvent être très instables. En utilisant le concept de biais conditionnel, nous proposons une version robuste aux valeurs aberrantes de l’estimateur doublement robuste. Les résultats des études par simulations montrent que l’estimateur proposé performe bien pour un choix approprié de la constante de robustesse.
Resumo:
Carnap a eu une participation active dans les discussions entourant la crise des fondements avant de se lancer dans le projet d’établir les fondements logiques des probabilités, ce qu’il présente dans « Logical Foundations of Probability » (1950). Il a montré que les querelles entre l’interprétation des probabilités comme état du monde et comme état de connaissance de l’observateur étaient vaines puisqu’elles ne portaient pas sur le même concept. Pour lui, la logique des probabilités est la logique inductive : une probabilité décrit une relation logique, soit le degré de confirmation d’une hypothèse selon des données observées. Deux ans plus tard, dans « The Continuum of Inductive Methods » (1952), il enrichit son système et démontre qu’il existe une quantité infinie de méthodes inductives. Nous replacerons l’interprétation de Carnap parmi celles discutées à son époque et discuterons de certaines implications.
Resumo:
Contexte : La petite enfance constitue une période importante dans l’acquisition de saines habitudes alimentaires. Par leurs connaissances, attitudes, croyances, pratiques et perceptions en alimentation et nutrition, plusieurs intervenants influencent les jeunes enfants : parents, responsables de l’alimentation et éducatrices en services de garde. Objectifs : Cette étude décrit et analyse les perceptions du « bien manger » de 113 responsables de l’alimentation, de 302 éducatrices et de 709 parents d’enfants âgés de 2 à 5 ans en services de garde au Québec. Méthodologie : Ce mémoire porte sur une question ouverte, répétée dans trois questionnaires autoadministrés de la recherche Offres et pratiques alimentaires revues dans les services de garde au Québec. Les réponses ont été recueillies de 2009 à 2010 et analysées au moyen d’une grille de codification construite de manières déductive et inductive. Résultats : L’analyse des données recueillies montre la récurrence des thèmes de la variété, l’équilibre, la modération, des légumes et fruits, mais aussi l’émergence du plaisir, de la santé, du GAC, des qualités organoleptiques, des pratiques coercitives et de la commensalité. Cette recherche dévoile que la variété, la santé et l’équilibre sont communs aux trois catégories d’intervenants, alors que le GAC, le plaisir, la saine alimentation et les qualités organoleptiques figurent plutôt dans les perceptions d’intervenants spécifiques. Conclusion : Ce portrait illustre la compréhension du « bien manger » qu’ont des intervenants jouant un rôle important dans le développement d’enfants âgés de 2 à 5 ans. En outre, il permet d’éclairer les acteurs développant messages, interventions et politiques de santé publique faisant la promotion de la saine alimentation et favorisant la mise en place d’environnements appuyant l’adoption de saines habitudes alimentaires dans les services de garde du Québec ainsi que dans les ménages.
Resumo:
The study deals with the distribution theory and applications of concomitants from the Morgenstern family of bivariate distributions.The Morgenstern system of distributions include all cumulative distributions of the form FX,Y(X,Y)=FX(X) FY(Y)[1+α(1-FX(X))(1-FY(Y))], -1≤α≤1.The system provides a very general expression of a bivariate distributions from which members can be derived by substituting expressions of any desired set of marginal distributions.It is a brief description of the basic distribution theory and a quick review of the existing literature.The Morgenstern family considered in the present study provides a very general expression of a bivariate distribution from which several members can be derived by substituting expressions of any desired set of marginal distributions.Order statistics play a very important role in statistical theory and practice and accordingly a remarkably large body of literature has been devoted to its study.It helps to develop special methods of statistical inference,which are valid with respect to a broad class of distributions.The present study deals with the general distribution theory of Mk, [r: m] and Mk, [r: m] from the Morgenstern family of distributions and discuss some applications in inference, estimation of the parameter of the marginal variable Y in the Morgestern type uniform distributions.
Resumo:
Ship recycling has been considered as the best means to dispose off an obsolete ship. The current state of art of technology combined with the demands of sustainable developments from the global maritime industrial sector has modified the status of erstwhile ‘ship breaking’ involving ship scrap business to a modern industry undertaking dismantling of ships and recycling/reusing the dismantled products in a supply chain of pre owned product market by following the principles of recycling. Industries will have to formulate a set of best practices and blend them with the engineering activities for producing better quality products, improving the productivity and for achieving improved performances related to sustainable development. Improved performance by industries in a sustainable development perspective is accomplished only by implementing the 4E principles, ie.,. ecofriendliness, engineering efficiency, energy conservation and ergonomics in their core operations. The present study has done a comprehensive investigation into various ship recycling operations for formulating a set of best practices.Being the ultimate life cycle stage of a ship, ship recycling activities incorporate certain commercial procedures well in advance to facilitate the objectives of dismantling and recycling/reusing of various parts of the vessel. Thorough knowledge regarding these background procedures in ship recycling is essential for examining and understanding the industrial business operations associated with it. As a first step, the practices followed in merchant shipping operations regarding the decision on decommissioning have been and made available in the thesis. Brief description about the positioning methods and important preparations for the most feasible ship recycling method ie.,. beach method have been provided as a part of the outline of the background information. Available sources of guidelines, codes and rules & regulations for ship recycling have been compiled and included in the discussion.Very brief summary of practices in major ship recycling destinations has been prepared and listed for providing an overview of the global ship recycling activities. The present status of ship recycling by treating it as a full fledged engineering industry has been brought out to establish the need for looking into the development of the best practices. Major engineering attributes of ship as a unique engineering product and the significant influencing factors on her life cycle stage operations have been studied and added to the information base on ship recycling. Role of ship recycling industry as an important player in global sustainable development efforts has been reviewed by analysing the benefits of ship recycling. A brief synopsis on the state of art of ship recycling in major international ship recycling centres has also been incorporated in the backdrop knowledgebase generation on ship recycling processes.Publications available in this field have been reviewed and classified into five subject categories viz., Infrastructure for recycling yards and methods of dismantling, Rules regarding ship recycling activities, Environmental and safety aspects of ship recycling, Role of naval architects and ship classification societies, Application of information technology and Demand forecasting. The inference from the literature survey have been summarised and recorded. Noticeable observations in the inference include need of creation of a comprehensive knowledgebase on ship recycling and its effective implementation in the industry and the insignificant involvement of naval architects and shipbuilding engineers in ship recycling industry. These two important inferences and the message conveyed by them have been addressed with due importance in the subsequent part of the present study.As a part of the study the importance of demand forecasting in ship recycling has been introduced and presented. A sample input for ship recycling data for implementation of computer based methods of demand forecasting has been presented in this section of the thesis.The interdisciplinary nature of engineering processes involved in ship recycling has been identified as one of the important features of this industry. The present study has identified more than a dozen major stake holders in ship recycling having their own interests and roles. It has also been observed that most of the ship recycling activities is carried out in South East Asian countries where the beach based ship recycling is done in yards without proper infrastructure support. A model of beach based ship recycling has been developed and the roles, responsibilities and the mutual interactions of the elements of the system have been documented as a part of the study Subsequently the need of a generation of a wide knowledgebase on ship recycling activities as pointed out by the literature survey has been addressed. The information base and source of expertise required to build a broad knowledgebase on ship recycling operations have been identified and tabulated. Eleven important ship recycling processes have been identified and a brief sketch of steps involved in these processes have been examined and addressed in detail. Based on these findings, a detailed sequential disassembly process plan of ship recycling has been prepared and charted. After having established the need of best practices in ship recycling initially, the present study here identifies development of a user friendly expert system for ship recycling process as one of the constituents of the proposed best practises. A user friendly expert system has been developed for beach based ship recycling processes and is named as Ship Recycling Recommender (SRR). Two important functions of SRR, first one for the ‘Administrators’, the stake holders at the helm of the ship recycling affairs and second one for the ‘Users’, the stake holders who execute the actual dismantling have been presented by highlighting the steps involved in the execution of the software. The important output generated, ie.,. recommended practices for ship dismantling processes and safe handling information on materials present onboard have been presented with the help of ship recycling reports generated by the expert system. A brief account of necessity of having a ship recycling work content estimation as part of the best practices has been presented in the study. This is supported by a detailed work estimation schedule for the same as one of the appendices.As mentioned earlier, a definite lack of involvement of naval architect has been observed in development of methodologies for improving the status of ship recycling industry. Present study has put forward a holistic approach to review the status of ship recycling not simply as end of life activity of all ‘time expired’ vessels, but as a focal point of integrating all life cycle activities. A new engineering design philosophy targeting sustainable development of marine industrial domain, named design for ship recycling has been identified, formulated and presented. A new model of ship life cycle has been proposed by adding few stages to the traditional life cycle after analysing their critical role in accomplishing clean and safe end of life and partial dismantling of ships. Two applications of design for ship recycling viz, recyclability of ships and her products and allotment of Green Safety Index for ships have been presented as a part of implementation of the philosophy in actual practice.
Resumo:
Multivariate lifetime data arise in various forms including recurrent event data when individuals are followed to observe the sequence of occurrences of a certain type of event; correlated lifetime when an individual is followed for the occurrence of two or more types of events, or when distinct individuals have dependent event times. In most studies there are covariates such as treatments, group indicators, individual characteristics, or environmental conditions, whose relationship to lifetime is of interest. This leads to a consideration of regression models.The well known Cox proportional hazards model and its variations, using the marginal hazard functions employed for the analysis of multivariate survival data in literature are not sufficient to explain the complete dependence structure of pair of lifetimes on the covariate vector. Motivated by this, in Chapter 2, we introduced a bivariate proportional hazards model using vector hazard function of Johnson and Kotz (1975), in which the covariates under study have different effect on two components of the vector hazard function. The proposed model is useful in real life situations to study the dependence structure of pair of lifetimes on the covariate vector . The well known partial likelihood approach is used for the estimation of parameter vectors. We then introduced a bivariate proportional hazards model for gap times of recurrent events in Chapter 3. The model incorporates both marginal and joint dependence of the distribution of gap times on the covariate vector . In many fields of application, mean residual life function is considered superior concept than the hazard function. Motivated by this, in Chapter 4, we considered a new semi-parametric model, bivariate proportional mean residual life time model, to assess the relationship between mean residual life and covariates for gap time of recurrent events. The counting process approach is used for the inference procedures of the gap time of recurrent events. In many survival studies, the distribution of lifetime may depend on the distribution of censoring time. In Chapter 5, we introduced a proportional hazards model for duration times and developed inference procedures under dependent (informative) censoring. In Chapter 6, we introduced a bivariate proportional hazards model for competing risks data under right censoring. The asymptotic properties of the estimators of the parameters of different models developed in previous chapters, were studied. The proposed models were applied to various real life situations.
Resumo:
The Andaman-Nicobar Islands in the Bay of Bengal lies in a zone where the Indian plate subducts beneath the Burmese microplate, and therefore forms a belt of frequent earthquakes. Few efforts, not withstanding the available historical and instrumental data were not effectively used before the Mw 9.3 Sumatra-Andaman earthquake to draw any inference on the spatial and temporal distribution of large subduction zone earthquakes in this region. An attempt to constrain the active crustal deformation of the Andaman-Nicobar arc in the background of the December 26, 2004 Great Sumatra-Andaman megathrust earthquake is made here, thereby presenting a unique data set representing the pre-seismic convergence and co-seismic displacement.Understanding the mechanisms of the subduction zone earthquakes is both challenging sCientifically and important for assessing the related earthquake hazards. In many subduction zones, thrust earthquakes may have characteristic patterns in space and time. However, the mechanism of mega events still remains largely unresolved.Large subduction zone earthquakes are usually associated with high amplitude co-seismic deformation above the plate boundary megathrust and the elastic relaxation of the fore-arc. These are expressed as vertical changes in land level with the up-dip part of the rupture surface uplifted and the areas above the down-dip edge subsided. One of the most characteristic pattern associated with the inter-seismic era is that the deformation is in an opposite sense that of co-seismic period.This work was started in 2002 to understand the tectonic deformation along the Andaman-Nicobar arc using seismological, geological and geodetic data. The occurrence of the 2004 megathrust earthquake gave a new dimension to this study, by providing an opportunity to examine the co-seismic deformation associated with the greatest earthquake to have occurred since the advent of Global Positioning System (GPS) and broadband seismometry. The major objectives of this study are to assess the pre-seismic stress regimes, to determine the pre-seismic convergence rate, to analyze and interpret the pattern of co-seismic displacement and slip on various segments and to look out for any possible recurrence interval for megathrust event occurrence for Andaman-Nicobar subduction zone. This thesis is arranged in six chapters with further subdivisions dealing all the above aspects.
Resumo:
This thesis entitled Reliability Modelling and Analysis in Discrete time Some Concepts and Models Useful in the Analysis of discrete life time data.The present study consists of five chapters. In Chapter II we take up the derivation of some general results useful in reliability modelling that involves two component mixtures. Expression for the failure rate, mean residual life and second moment of residual life of the mixture distributions in terms of the corresponding quantities in the component distributions are investigated. Some applications of these results are also pointed out. The role of the geometric,Waring and negative hypergeometric distributions as models of life lengths in the discrete time domain has been discussed already. While describing various reliability characteristics, it was found that they can be often considered as a class. The applicability of these models in single populations naturally extends to the case of populations composed of sub-populations making mixtures of these distributions worth investigating. Accordingly the general properties, various reliability characteristics and characterizations of these models are discussed in chapter III. Inference of parameters in mixture distribution is usually a difficult problem because the mass function of the mixture is a linear function of the component masses that makes manipulation of the likelihood equations, leastsquare function etc and the resulting computations.very difficult. We show that one of our characterizations help in inferring the parameters of the geometric mixture without involving computational hazards. As mentioned in the review of results in the previous sections, partial moments were not studied extensively in literature especially in the case of discrete distributions. Chapters IV and V deal with descending and ascending partial factorial moments. Apart from studying their properties, we prove characterizations of distributions by functional forms of partial moments and establish recurrence relations between successive moments for some well known families. It is further demonstrated that partial moments are equally efficient and convenient compared to many of the conventional tools to resolve practical problems in reliability modelling and analysis. The study concludes by indicating some new problems that surfaced during the course of the present investigation which could be the subject for a future work in this area.
Resumo:
there has been much research on analyzing various forms of competing risks data. Nevertheless, there are several occasions in survival studies, where the existing models and methodologies are inadequate for the analysis competing risks data. ldentifiabilty problem and various types of and censoring induce more complications in the analysis of competing risks data than in classical survival analysis. Parametric models are not adequate for the analysis of competing risks data since the assumptions about the underlying lifetime distributions may not hold well. Motivated by this, in the present study. we develop some new inference procedures, which are completely distribution free for the analysis of competing risks data.
Resumo:
Learning Disability (LD) is a neurological condition that affects a child’s brain and impairs his ability to carry out one or many specific tasks. LD affects about 15 % of children enrolled in schools. The prediction of LD is a vital and intricate job. The aim of this paper is to design an effective and powerful tool, using the two intelligent methods viz., Artificial Neural Network and Adaptive Neuro-Fuzzy Inference System, for measuring the percentage of LD that affected in school-age children. In this study, we are proposing some soft computing methods in data preprocessing for improving the accuracy of the tool as well as the classifier. The data preprocessing is performed through Principal Component Analysis for attribute reduction and closest fit algorithm is used for imputing missing values. The main idea in developing the LD prediction tool is not only to predict the LD present in children but also to measure its percentage along with its class like low or minor or major. The system is implemented in Mathworks Software MatLab 7.10. The results obtained from this study have illustrated that the designed prediction system or tool is capable of measuring the LD effectively