975 resultados para performances


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au cours des dernières années, une sélection génétique importante a été faite pour améliorer la production de lait des bovins, ceci au détriment des performances reproductives. Cette diminution de performance n’a cependant pas été rapportée chez la génisse présentant un même potentiel génétique. Cette immense production de lait et les changements métaboliques qui l’accompagnent ont donc un impact négatif sur l’efficacité reproductive des vaches laitières qui subissent un stress métabolique supérieur à celui des génisses. Le but de l’étude était d’acquérir une meilleure connaissance des différences moléculaires et métaboliques entre ces deux groupes d’animaux pour amener à une meilleure compréhension de la pathogenèse de l’infertilité chez la vache laitière. Pour ce faire, les vagues folliculaires de vaches en lactation (30-50 jours en lait; N = 12) et de génisses (N = 10) ont été synchronisées par ablation écho guidée des follicules et par traitement hormonal avec injection de prostaglandine et insertion d’un implant de progestérone. L’aspiration du liquide folliculaire et des cellules de la granulosa du follicule dominant a été faite au jour 6. Les paramètres métaboliques mesurés chez les animaux à partir de prises de sang, faites au jour 6, confirment un plus grand stress métabolique chez la vache, les niveaux de BHBA, acides biliaires et cholestérol étant plus élevés et le niveau de glucose plus bas chez celles-ci. Un total de six échantillons a été utilisé pour le séquençage d’ARN et des analyses bio-informatiques ont été effectuées. Plusieurs gènes et voies de signalisation ont présenté des différences entre les deux groupes d’animaux incluant le cycle cellulaire et la production d’hormones. Une confirmation des résultats par PCR en temps réel a été faite, mais la grande variation intragroupe a nui à l’obtention de résultats significatifs. Conjointement, une culture primaire de cellules de la granulosa a été réalisée pour évaluer l’effet des acides biliaires sur la stéroïdogenèse suite à la détection d’une plus grande quantité de ceux-ci chez la vache laitière. La présence d’acide biliaire dans la culture cellulaire cause une diminution de l’accumulation d’estradiol ainsi que de l’expression des gènes CYP19A1 et CYP11A1. Les résultats présentés dans ce mémoire indiquent une différence potentielle au niveau métabolique et moléculaire des follicules dominants entre la vache laitière et la génisse pouvant avoir une responsabilité dans la diminution de l’efficacité reproductive observée chez la vache laitière.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Grâce à son accessibilité, sa polyvalence et sa sécurité, l'échocardiographie est devenue la technique d'imagerie la plus utilisée pour évaluer la fonction cardiaque. Au vu du succès de l'échographie ultrarapide par ondes planes des techniques similaires pour augmenter la résolution temporelle en échocardiographie ont été mise en oeuvre. L’augmentation de la résolution temporelle de l’échographie cardiaque au-delà des valeurs actuellement atteignables (~ 60 à 80 images par secondes), pourrait être utilisé pour améliorer d’autres caractéristiques de l'échocardiographie, comme par exemple élargir la plage de vitesses détectables en imagerie Doppler couleur limitées par la valeur de Nyquist. Nous avons étudié l'échocardiographie ultrarapide en utilisant des fronts d’ondes ultrasonores divergentes. La résolution temporelle atteinte par la méthode d'ondes divergentes a permis d’améliorer les capacités des modes d’échocardiographie en mode B et en Doppler couleur. La résolution temporelle de la méthode mode B a été augmentée jusqu'à 633 images par secondes, tout en gardant une qualité d'image comparable à celle de la méthode d’échocardiographie conventionnelle. La vitesse de Nyquist de la méthode Doppler couleur a été multipliée jusqu'à 6 fois au delà de la limite conventionnelle en utilisant une technique inspirée de l’imagerie radar; l’implémentation de cette méthode n’aurait pas été possible sans l’utilisation de fronts d’ondes divergentes. Les performances avantageuses de la méthode d'échocardiographie ultrarapide sont supportées par plusieurs résultats in vitro et in vivo inclus dans ce manuscrit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

But: La perte unilatérale du cortex visuel postérieur engendre une cécité corticale controlatérale à la lésion, qu’on appelle hémianopsie homonyme (HH). Celle-ci est notamment accompagnée de problèmes d’exploration visuelle dans l’hémichamp aveugle dus à des stratégies oculaires déficitaires, qui ont été la cible des thérapies de compensation. Or, cette perte de vision peut s’accompagner d’une perception visuelle inconsciente, appelée blindsight. Notre hypothèse propose que le blindsight soit médié par la voie rétino-colliculaire extrastriée, recrutant le colliculus supérieur (CS), une structure multisensorielle. Notre programme a pour objectif d’évaluer l’impact d’un entraînement multisensoriel (audiovisuel) sur la performance visuelle inconsciente des personnes hémianopsiques et les stratégies oculaires. Nous essayons, ainsi, de démontrer l’implication du CS dans le phénomène de blindsight et la pertinence de la technique de compensation multisensorielle comme thérapie de réadaptation. Méthode: Notre participante, ML, atteinte d’une HH droite a effectué un entraînement d’intégration audiovisuel pour une période de 10 jours. Nous avons évalué la performance visuelle en localisation et en détection ainsi que les stratégies oculaires selon trois comparaisons principales : (1) entre l’hémichamp normal et l’hémichamp aveugle; (2) entre la condition visuelle et les conditions audiovisuelles; (3) entre les sessions de pré-entraînement, post-entraînement et 3 mois post-entraînement. Résultats: Nous avons démontré que (1) les caractéristiques des saccades et des fixations sont déficitaires dans l’hémichamp aveugle; (2) les stratégies saccadiques diffèrent selon les excentricités et les conditions de stimulations; (3) une adaptation saccadique à long terme est possible dans l’hémichamp aveugle si l’on considère le bon cadre de référence; (4) l’amélioration des mouvements oculaires est liée au blindsight. Conclusion(s): L’entraînement multisensoriel conduit à une amélioration de la performance visuelle pour des cibles non perçues, tant en localisation qu’en détection, ce qui est possiblement induit par le développement de la performance oculomotrice.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les histones sont des protéines nucléaires hautement conservées chez les cellules des eucaryotes. Elles permettent d’organiser et de compacter l’ADN sous la forme de nucléosomes, ceux-ci representant les sous unités de base de la chromatine. Les histones peuvent être modifiées par de nombreuses modifications post-traductionnelles (PTMs) telles que l’acétylation, la méthylation et la phosphorylation. Ces modifications jouent un rôle essentiel dans la réplication de l’ADN, la transcription et l’assemblage de la chromatine. L’abondance de ces modifications peut varier de facon significative lors du developpement des maladies incluant plusieurs types de cancer. Par exemple, la perte totale de la triméthylation sur H4K20 ainsi que l’acétylation sur H4K16 sont des marqueurs tumoraux spécifiques a certains types de cancer chez l’humain. Par conséquent, l’étude de ces modifications et des événements determinant la dynamique des leurs changements d’abondance sont des atouts importants pour mieux comprendre les fonctions cellulaires et moléculaires lors du développement de la maladie. De manière générale, les modifications des histones sont étudiées par des approches biochimiques telles que les immuno-buvardage de type Western ou les méthodes d’immunoprécipitation de la chromatine (ChIP). Cependant, ces approches présentent plusieurs inconvénients telles que le manque de spécificité ou la disponibilité des anticorps, leur coût ou encore la difficulté de les produire et de les valider. Au cours des dernières décennies, la spectrométrie de masse (MS) s’est avérée être une méthode performante pour la caractérisation et la quantification des modifications d’histones. La MS offre de nombreux avantages par rapport aux techniques traditionnelles. Entre autre, elle permet d’effectuer des analyses reproductibles, spécifiques et facilite l’etude d’un large spectre de PTMs en une seule analyse. Dans cette thèse, nous présenterons le développement et l’application de nouveaux outils analytiques pour l’identification et à la quantification des PTMs modifiant les histones. Dans un premier temps, une méthode a été développée pour mesurer les changements d’acétylation spécifiques à certains sites des histones. Cette méthode combine l’analyse des histones intactes et les méthodes de séquençage peptidique afin de déterminer les changements d’acétylation suite à la réaction in vitro par l’histone acétyltransférase (HAT) de levure Rtt109 en présence de ses chaperonnes (Asf1 ou Vps75). Dans un second temps, nous avons développé une méthode d’analyse des peptides isomériques des histones. Cette méthode combine la LC-MS/MS à haute résolution et un nouvel outil informatique appelé Iso-PeptidAce qui permet de déconvoluer les spectres mixtes de peptides isomériques. Nous avons évalué Iso-PeptidAce avec un mélange de peptides synthétiques isomériques. Nous avons également validé les performances de cette approche avec des histones isolées de cellules humaines érythroleucémiques (K562) traitées avec des inhibiteurs d’histones désacétylases (HDACi) utilisés en clinique, et des histones de Saccharomyces cerevisiae liées au facteur d’assemblage de la chromatine (CAF-1) purifiées par chromatographie d’affinité. Enfin, en utilisant la méthode présentée précédemment, nous avons fait une analyse approfondie de la spécificité de plusieurs HATs et HDACs chez Schizosaccharomyces pombe. Nous avons donc déterminé les niveaux d’acétylation d’histones purifiées à partir de cellules contrôles ou de souches mutantes auxquelles il manque une HAT ou HDAC. Notre analyse nous a permis de valider plusieurs cibles connues des HATs et HDACs et d’en identifier de nouvelles. Nos données ont également permis de définir le rôle des différentes HATs et HDACs dans le maintien de l’équilibre d’acétylation des histones. Dans l’ensemble, nous anticipons que les méthodes décrites dans cette thèse permettront de résoudre certains défis rencontrés dans l’étude de la chromatine. De plus, ces données apportent de nouvelles connaissances pour l’élaboration d’études génétiques et biochimiques utilisant S. pombe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Purpose: There are few studies demonstrating the link between neural oscillations in magnetoencephalography (MEG) at rest and cognitive performance. Working memory is one of the most studied cognitive processes and is the ability to manipulate information on items kept in short-term memory. Heister & al. (2013) showed correlation patterns between brain oscillations at rest in MEG and performance in a working memory task (n-back). These authors showed that delta/theta activity in fronto-parietal areas is related to working memory performance. In this study, we use resting state MEG oscillations to validate these correlations with both of verbal (VWM) and spatial (SWM) working memory, and test their specificity in comparison with other cognitive abilities. Methods: We recorded resting state MEG and used clinical neuropsychological tests to assess working memory performance in 18 volunteers (6 males and 12 females). The other neuropsychological tests of the WAIS-IV were used as control tests to assess the specificity of the correlation patterns with working memory. We calculated means of Power Spectrum Density for different frequency bands (delta, 1-4Hz; theta, 4-8Hz; alpha, 8-13Hz; beta, 13-30Hz; gamma1, 30-59Hz; gamma2, 61-90Hz; gamma3, 90-120Hz; large gamma, 30-120Hz) and correlated MEG power normalised for the maximum in each frequency band at the sensor level with working memory performance. We then grouped the sensors showing a significant correlation by using a cluster algorithm. Results: We found positive correlations between both types of working memory performance and clusters in the bilateral posterior and right fronto-temporal regions for the delta band (r2 =0.73), in the fronto-middle line and right temporal regions for the theta band (r2 =0.63) as well as in the parietal regions for the alpha band (r2 =0.78). Verbal working memory and spatial working memory share a common fronto-parietal cluster of sensors but also show specific clusters. These clusters are specific to working memory, as compared to those obtained for other cognitive abilities and right posterior parietal areas, specially in slow frequencies, appear to be specific to working memory process. Conclusions: Slow frequencies (1-13Hz) but more precisely in delta/theta bands (1-8Hz), recorded at rest with magnetoencephalography, predict working memory performance and support the role of a fronto-parietal network in working memory.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Each item in a given collection is characterized by a set of possible performances. A (ranking) method is a function that assigns an ordering of the items to every performance profile. Ranking by Rating consists in evaluating each item’s performance by using an exogenous rating function, and ranking items according to their performance ratings. Any such method is separable: the ordering of two items does not depend on the performances of the remaining items. We prove that every separable method must be of the ranking-by-rating type if (i) the set of possible performances is the same for all items and the method is anonymous, or (ii) the set of performances of each item is ordered and the method is monotonic. When performances are m-dimensional vectors, a separable, continuous, anonymous, monotonic, and invariant method must rank items according to a weighted geometric mean of their performances along the m dimensions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’acceptabilité d’un décès lors d’une simulation médicale reste débattue mais il existe peu de données sur la perspective des apprenants. Des médecins résidents ont effectué une pratique de code et ont rempli un questionnaire pré et post-simulation. Ils ont été exposés à deux scénarios où un bébé naissait sans signe de vie: 1. Nouveau-né ne répondant pas aux manœuvres de réanimation (DCD); 2. Nouveau-né s’améliorant avec une réanimation adéquate (REA). Les performances étaient évaluées à l’aide de la grille standardisée du Programme de Réanimation Néonatale. Le stress objectif (cortisol salivaire) et subjectif a été mesuré après le code. La rétroaction («feedback»), individuelle et en groupe, fut analysée à l’aide de méthodologies qualitatives. 59/62 apprenants ont répondu au questionnaire et 42 ont participé à la simulation. Tous les résidents trouvent les simulations bénéfiques et souhaitent y être exposés davantage. Le type et l’ordre des scénarios n’ont pas eu d’impact sur la performance. Un seul résident a interrompu les manœuvres de réanimation après 10 minutes d’asystolie, tel que recommandé, et 31% ont poursuivi après 20 minutes. Les participants trouvaient le scénario DCD plus stressant. Les niveaux de cortisol salivaire ont augmenté après les simulations (p<0.001) et ce, pour les deux scénarios. Cette augmentation était indépendante du scénario (p=0.06) et n’était pas associée à la performance. Les réponses à la question « Comment a été votre expérience? », ont permis d’identifier deux thèmes: 1. Le mannequin ne meurt pas en simulation médicale; 2. Le décès lors de la simulation signifie une réanimation inadéquate. Le décès lors d’une pratique de code est stressant, mais n’interfère pas avec la performance des soignants. Les apprenants trouvent cet exercice acceptable et bénéfique à leur pratique future.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La déficience intellectuelle est la cause d’handicap la plus fréquente chez l’enfant. De nombreuses évidences convergent vers l’idée selon laquelle des altérations dans les gènes synaptiques puissent expliquer une fraction significative des affections neurodéveloppementales telles que la déficience intellectuelle ou encore l’autisme. Jusqu’à récemment, la majorité des mutations associées à la déficience intellectuelle a été liée au chromosome X ou à la transmission autosomique récessive. D’un autre côté, plusieurs études récentes suggèrent que des mutations de novo dans des gènes à transmission autosomique dominante, requis dans les processus de la plasticité synaptique peuvent être à la source d’une importante fraction des cas de déficience intellectuelle non syndromique. Par des techniques permettant la capture de l’exome et le séquençage de l’ADN génomique, notre laboratoire a précédemment reporté les premières mutations pathogéniques dans le gène à transmission autosomique dominante SYNGAP1. Ces dernières ont été associées à des troubles comportementaux tels que la déficience intellectuelle, l’inattention, des problèmes d’humeur, d’impulsivité et d’agressions physiques. D’autres patients sont diagnostiqués avec des troubles autistiques et/ou des formes particulières d’épilepsie généralisée. Chez la souris, le knock-out constitutif de Syngap1 (souris Syngap1+/-) résulte en des déficits comme l’hyperactivité locomotrice, une réduction du comportement associée à l’anxiété, une augmentation du réflexe de sursaut, une propension à l’isolation, des problèmes dans le conditionnement à la peur, des troubles dans les mémoires de travail, de référence et social. Ainsi, la souris Syngap1+/- représente un modèle approprié pour l’étude des effets délétères causés par l’haploinsuffisance de SYNGAP1 sur le développement de circuits neuronaux. D’autre part, il est de première importance de statuer si les mutations humaines aboutissent à l’haploinsuffisance de la protéine. SYNGAP1 encode pour une protéine à activité GTPase pour Ras. Son haploinsuffisance entraîne l’augmentation des niveaux d’activité de Ras, de phosphorylation de ERK, cause une morphogenèse anormale des épines dendritiques et un excès dans la concentration des récepteurs AMPA à la membrane postsynaptique des neurones excitateurs. Plusieurs études suggèrent que l’augmentation précoce de l’insertion des récepteurs AMPA au sein des synapses glutamatergiques contribue à certains phénotypes observés chez la souris Syngap1+/-. En revanche, les conséquences de l’haploinsuffisance de SYNGAP1 sur les circuits neuronaux GABAergiques restent inconnues. Les enjeux de mon projet de PhD sont: 1) d’identifier l’impact de mutations humaines dans la fonction de SYNGAP1; 2) de déterminer si SYNGAP1 contribue au développement et à la fonction des circuits GABAergiques; 3) de révéler comment l’haploinsuffisance de Syngap1 restreinte aux circuits GABAergiques affecte le comportement et la cognition. Nous avons publié les premières mutations humaines de type faux-sens dans le gène SYNGAP1 (c.1084T>C [p.W362R]; c.1685C>T [p.P562L]) ainsi que deux nouvelles mutations tronquantes (c.2212_2213del [p.S738X]; c.283dupC [p.H95PfsX5]). Ces dernières sont toutes de novo à l’exception de c.283dupC, héritée d’un père mosaïque pour la même mutation. Dans cette étude, nous avons confirmé que les patients pourvus de mutations dans SYNGAP1 présentent, entre autre, des phénotypes associés à des troubles comportementaux relatifs à la déficience intellectuelle. En culture organotypique, la transfection biolistique de l’ADNc de Syngap1 wild-type dans des cellules pyramidales corticales réduit significativement les niveaux de pERK, en fonction de l’activité neuronale. Au contraire les constructions plasmidiques exprimant les mutations W362R, P562L, ou celle précédemment répertoriée R579X, n’engendre aucun effet significatif sur les niveaux de pERK. Ces résultats suggèrent que ces mutations faux-sens et tronquante résultent en la perte de la fonction de SYNGAP1 ayant fort probablement pour conséquences d’affecter la régulation du développement cérébral. Plusieurs études publiées suggèrent que les déficits cognitifs associés à l’haploinsuffisance de SYNGAP1 peuvent émerger d’altérations dans le développement des neurones excitateurs glutamatergiques. Toutefois, si, et auquel cas, de quelle manière ces mutations affectent le développement des interneurones GABAergiques résultant en un déséquilibre entre l’excitation et l’inhibition et aux déficits cognitifs restent sujet de controverses. Par conséquent, nous avons examiné la contribution de Syngap1 dans le développement des circuits GABAergiques. A cette fin, nous avons généré une souris mutante knockout conditionnelle dans laquelle un allèle de Syngap1 est spécifiquement excisé dans les interneurones GABAergiques issus de l’éminence ganglionnaire médiale (souris Tg(Nkx2.1-Cre);Syngap1flox/+). En culture organotypique, nous avons démontré que la réduction de Syngap1 restreinte aux interneurones inhibiteurs résulte en des altérations au niveau de leur arborisation axonale et dans leur densité synaptique. De plus, réalisés sur des coupes de cerveau de souris Tg(Nkx2.1-Cre);Syngap1flox/+, les enregistrements des courants inhibiteurs postsynaptiques miniatures (mIPSC) ou encore de ceux évoqués au moyen de l’optogénétique (oIPSC) dévoilent une réduction significative de la neurotransmission inhibitrice corticale. Enfin, nous avons comparé les performances de souris jeunes adultes Syngap1+/-, Tg(Nkx2.1-Cre);Syngap1flox/+ à celles de leurs congénères contrôles dans une batterie de tests comportementaux. À l’inverse des souris Syngap1+/-, les souris Tg(Nkx2.1-Cre);Syngap1flox/+ ne présentent pas d’hyperactivité locomotrice, ni de comportement associé à l’anxiété. Cependant, elles démontrent des déficits similaires dans la mémoire de travail et de reconnaissance sociale, suggérant que l’haploinsuffisance de Syngap1 restreinte aux interneurones GABAergiques dérivés de l’éminence ganglionnaire médiale récapitule en partie certains des phénotypes cognitifs observés chez la souris Syngap1+/-. Mes travaux de PhD établissent pour la première fois que les mutations humaines dans le gène SYNGAP1 associés à la déficience intellectuelle causent la perte de fonction de la protéine. Mes études dévoilent, également pour la première fois, l’influence significative de ce gène dans la régulation du développement et de la fonction des interneurones. D’admettre l’atteinte des cellules GABAergiques illustre plus réalistement la complexité de la déficience intellectuelle non syndromique causée par l’haploinsuffisance de SYNGAP1. Ainsi, seule une compréhension raffinée de cette condition neurodéveloppementale pourra mener à une approche thérapeutique adéquate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The present thesis is centered around the study of electrical and thermal properties of certain selected photonic materials.We have studied the electrical conduction mechanism in various phases of certain selected photonic materials and those associated with different phase transitions occurring in them. A phase transition leaves its own impressions on the key parameters like electrical conductivity and dielectric constant. However, the activation energy calculation reveals the dominant factor responsible for conduction process.PA measurements of thermal diffusivity in certain other important photonic materials are included in the remaining part of the research work presented in this thesis. PA technique is a promising tool for studying thermal diffusivities of solid samples in any form. Because of its crucial role and common occurrence in heat flow problems, the thermal diffusivity determination is often necessary and knowledge of thermal diffusivity can intum be used to calculate the thermal conductivity. Especially,knowledge of the thermal diffusivity of semiconductors is important due to its relation to the power dissipation problem in microelectronic and optoelectronic devices which limits their performances. More than that, the thermal properties, especially those of thin films are of growing interest in microelectronics and microsystems because of the heat removal problem involved in highly integrated devices. The prescribed chapter of the present theis demonstrates how direct measurement of thermal diffusivity can be carried out in thin films of interest in a simple and elegant manner using PA techniques. Although results of only representative measurements viz; thermal diffusivity values in Indium, Aluminium, Silver and CdS thin films are given here, evaluation of this quantity for any photonic and / electronic material can be carried out using this technique in a very simple and straight forward manner.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ship recycling has been considered as the best means to dispose off an obsolete ship. The current state of art of technology combined with the demands of sustainable developments from the global maritime industrial sector has modified the status of erstwhile ‘ship breaking’ involving ship scrap business to a modern industry undertaking dismantling of ships and recycling/reusing the dismantled products in a supply chain of pre owned product market by following the principles of recycling. Industries will have to formulate a set of best practices and blend them with the engineering activities for producing better quality products, improving the productivity and for achieving improved performances related to sustainable development. Improved performance by industries in a sustainable development perspective is accomplished only by implementing the 4E principles, ie.,. ecofriendliness, engineering efficiency, energy conservation and ergonomics in their core operations. The present study has done a comprehensive investigation into various ship recycling operations for formulating a set of best practices.Being the ultimate life cycle stage of a ship, ship recycling activities incorporate certain commercial procedures well in advance to facilitate the objectives of dismantling and recycling/reusing of various parts of the vessel. Thorough knowledge regarding these background procedures in ship recycling is essential for examining and understanding the industrial business operations associated with it. As a first step, the practices followed in merchant shipping operations regarding the decision on decommissioning have been and made available in the thesis. Brief description about the positioning methods and important preparations for the most feasible ship recycling method ie.,. beach method have been provided as a part of the outline of the background information. Available sources of guidelines, codes and rules & regulations for ship recycling have been compiled and included in the discussion.Very brief summary of practices in major ship recycling destinations has been prepared and listed for providing an overview of the global ship recycling activities. The present status of ship recycling by treating it as a full fledged engineering industry has been brought out to establish the need for looking into the development of the best practices. Major engineering attributes of ship as a unique engineering product and the significant influencing factors on her life cycle stage operations have been studied and added to the information base on ship recycling. Role of ship recycling industry as an important player in global sustainable development efforts has been reviewed by analysing the benefits of ship recycling. A brief synopsis on the state of art of ship recycling in major international ship recycling centres has also been incorporated in the backdrop knowledgebase generation on ship recycling processes.Publications available in this field have been reviewed and classified into five subject categories viz., Infrastructure for recycling yards and methods of dismantling, Rules regarding ship recycling activities, Environmental and safety aspects of ship recycling, Role of naval architects and ship classification societies, Application of information technology and Demand forecasting. The inference from the literature survey have been summarised and recorded. Noticeable observations in the inference include need of creation of a comprehensive knowledgebase on ship recycling and its effective implementation in the industry and the insignificant involvement of naval architects and shipbuilding engineers in ship recycling industry. These two important inferences and the message conveyed by them have been addressed with due importance in the subsequent part of the present study.As a part of the study the importance of demand forecasting in ship recycling has been introduced and presented. A sample input for ship recycling data for implementation of computer based methods of demand forecasting has been presented in this section of the thesis.The interdisciplinary nature of engineering processes involved in ship recycling has been identified as one of the important features of this industry. The present study has identified more than a dozen major stake holders in ship recycling having their own interests and roles. It has also been observed that most of the ship recycling activities is carried out in South East Asian countries where the beach based ship recycling is done in yards without proper infrastructure support. A model of beach based ship recycling has been developed and the roles, responsibilities and the mutual interactions of the elements of the system have been documented as a part of the study Subsequently the need of a generation of a wide knowledgebase on ship recycling activities as pointed out by the literature survey has been addressed. The information base and source of expertise required to build a broad knowledgebase on ship recycling operations have been identified and tabulated. Eleven important ship recycling processes have been identified and a brief sketch of steps involved in these processes have been examined and addressed in detail. Based on these findings, a detailed sequential disassembly process plan of ship recycling has been prepared and charted. After having established the need of best practices in ship recycling initially, the present study here identifies development of a user friendly expert system for ship recycling process as one of the constituents of the proposed best practises. A user friendly expert system has been developed for beach based ship recycling processes and is named as Ship Recycling Recommender (SRR). Two important functions of SRR, first one for the ‘Administrators’, the stake holders at the helm of the ship recycling affairs and second one for the ‘Users’, the stake holders who execute the actual dismantling have been presented by highlighting the steps involved in the execution of the software. The important output generated, ie.,. recommended practices for ship dismantling processes and safe handling information on materials present onboard have been presented with the help of ship recycling reports generated by the expert system. A brief account of necessity of having a ship recycling work content estimation as part of the best practices has been presented in the study. This is supported by a detailed work estimation schedule for the same as one of the appendices.As mentioned earlier, a definite lack of involvement of naval architect has been observed in development of methodologies for improving the status of ship recycling industry. Present study has put forward a holistic approach to review the status of ship recycling not simply as end of life activity of all ‘time expired’ vessels, but as a focal point of integrating all life cycle activities. A new engineering design philosophy targeting sustainable development of marine industrial domain, named design for ship recycling has been identified, formulated and presented. A new model of ship life cycle has been proposed by adding few stages to the traditional life cycle after analysing their critical role in accomplishing clean and safe end of life and partial dismantling of ships. Two applications of design for ship recycling viz, recyclability of ships and her products and allotment of Green Safety Index for ships have been presented as a part of implementation of the philosophy in actual practice.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Internet today has become a vital part of day to day life, owing to the revolutionary changes it has brought about in various fields. Dependence on the Internet as an information highway and knowledge bank is exponentially increasing so that a going back is beyond imagination. Transfer of critical information is also being carried out through the Internet. This widespread use of the Internet coupled with the tremendous growth in e-commerce and m-commerce has created a vital need for infonnation security.Internet has also become an active field of crackers and intruders. The whole development in this area can become null and void if fool-proof security of the data is not ensured without a chance of being adulterated. It is, hence a challenge before the professional community to develop systems to ensure security of the data sent through the Internet.Stream ciphers, hash functions and message authentication codes play vital roles in providing security services like confidentiality, integrity and authentication of the data sent through the Internet. There are several ·such popular and dependable techniques, which have been in use widely, for quite a long time. This long term exposure makes them vulnerable to successful or near successful attempts for attacks. Hence it is the need of the hour to develop new algorithms with better security.Hence studies were conducted on various types of algorithms being used in this area. Focus was given to identify the properties imparting security at this stage. By making use of a perception derived from these studies, new algorithms were designed. Performances of these algorithms were then studied followed by necessary modifications to yield an improved system consisting of a new stream cipher algorithm MAJE4, a new hash code JERIM- 320 and a new message authentication code MACJER-320. Detailed analysis and comparison with the existing popular schemes were also carried out to establish the security levels.The Secure Socket Layer (SSL) I Transport Layer Security (TLS) protocol is one of the most widely used security protocols in Internet. The cryptographic algorithms RC4 and HMAC have been in use for achieving security services like confidentiality and authentication in the SSL I TLS. But recent attacks on RC4 and HMAC have raised questions about the reliability of these algorithms. Hence MAJE4 and MACJER-320 have been proposed as substitutes for them. Detailed studies on the performance of these new algorithms were carried out; it has been observed that they are dependable alternatives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis, the applications of the recurrence quantification analysis in metal cutting operation in a lathe, with specific objective to detect tool wear and chatter, are presented.This study is based on the discovery that process dynamics in a lathe is low dimensional chaotic. It implies that the machine dynamics is controllable using principles of chaos theory. This understanding is to revolutionize the feature extraction methodologies used in condition monitoring systems as conventional linear methods or models are incapable of capturing the critical and strange behaviors associated with the metal cutting process.As sensor based approaches provide an automated and cost effective way to monitor and control, an efficient feature extraction methodology based on nonlinear time series analysis is much more demanding. The task here is more complex when the information has to be deduced solely from sensor signals since traditional methods do not address the issue of how to treat noise present in real-world processes and its non-stationarity. In an effort to get over these two issues to the maximum possible, this thesis adopts the recurrence quantification analysis methodology in the study since this feature extraction technique is found to be robust against noise and stationarity in the signals.The work consists of two different sets of experiments in a lathe; set-I and set-2. The experiment, set-I, study the influence of tool wear on the RQA variables whereas the set-2 is carried out to identify the sensitive RQA variables to machine tool chatter followed by its validation in actual cutting. To obtain the bounds of the spectrum of the significant RQA variable values, in set-i, a fresh tool and a worn tool are used for cutting. The first part of the set-2 experiments uses a stepped shaft in order to create chatter at a known location. And the second part uses a conical section having a uniform taper along the axis for creating chatter to onset at some distance from the smaller end by gradually increasing the depth of cut while keeping the spindle speed and feed rate constant.The study concludes by revealing the dependence of certain RQA variables; percent determinism, percent recurrence and entropy, to tool wear and chatter unambiguously. The performances of the results establish this methodology to be viable for detection of tool wear and chatter in metal cutting operation in a lathe. The key reason is that the dynamics of the system under study have been nonlinear and the recurrence quantification analysis can characterize them adequately.This work establishes that principles and practice of machining can be considerably benefited and advanced from using nonlinear dynamics and chaos theory.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

After skin cancer, breast cancer accounts for the second greatest number of cancer diagnoses in women. Currently the etiologies of breast cancer are unknown, and there is no generally accepted therapy for preventing it. Therefore, the best way to improve the prognosis for breast cancer is early detection and treatment. Computer aided detection systems (CAD) for detecting masses or micro-calcifications in mammograms have already been used and proven to be a potentially powerful tool , so the radiologists are attracted by the effectiveness of clinical application of CAD systems. Fractal geometry is well suited for describing the complex physiological structures that defy the traditional Euclidean geometry, which is based on smooth shapes. The major contribution of this research include the development of • A new fractal feature to accurately classify mammograms into normal and normal (i)With masses (benign or malignant) (ii) with microcalcifications (benign or malignant) • A novel fast fractal modeling method to identify the presence of microcalcifications by fractal modeling of mammograms and then subtracting the modeled image from the original mammogram. The performances of these methods were evaluated using different standard statistical analysis methods. The results obtained indicate that the developed methods are highly beneficial for assisting radiologists in making diagnostic decisions. The mammograms for the study were obtained from the two online databases namely, MIAS (Mammographic Image Analysis Society) and DDSM (Digital Database for Screening Mammography.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Antennas are necessary and vital components of communication and radar systems, but sometimes their inability to adjust to new operating scenarios can limit system performance. Reconfigurable antennas can adjust with changing system requirements or environmental conditions and provide additional levels of functionality that may result in wider instantaneous frequency bandwidths, more extensive scan volumes, and radiation patterns with more desirable side lobe distributions. Their agility and diversity created new horizons for different types of applications especially in cognitive radio, Multiple Input Multiple Output Systems, satellites and many other applications. Reconfigurable antennas satisfy the requirements for increased functionality, such as direction finding, beam steering, radar, control and command, within a confined volume. The intelligence associated with the reconfigurable antennas revolved around switching mechanisms utilized. In the present work, we have investigated frequency reconfigurable polarization diversity antennas using two methods: 1. By using low-loss, high-isolation switches such as PIN diode, the antenna can be structurally reconfigured to maintain the elements near their resonant dimensions for different frequency bands and/or polarization. 2. Secondly, the incorporation of variable capacitors or varactors, to overcome many problems faced in using switches and their biasing. The performances of these designs have been studied using standard simulation tools used in industry/academia and they have been experimentally verified. Antenna design guidelines are also deduced by accounting the resonances. One of the major contributions of the thesis lies in the analysis of the designed antennas using FDTD based numerical computation to validate their performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Biometrics deals with the physiological and behavioral characteristics of an individual to establish identity. Fingerprint based authentication is the most advanced biometric authentication technology. The minutiae based fingerprint identification method offer reasonable identification rate. The feature minutiae map consists of about 70-100 minutia points and matching accuracy is dropping down while the size of database is growing up. Hence it is inevitable to make the size of the fingerprint feature code to be as smaller as possible so that identification may be much easier. In this research, a novel global singularity based fingerprint representation is proposed. Fingerprint baseline, which is the line between distal and intermediate phalangeal joint line in the fingerprint, is taken as the reference line. A polygon is formed with the singularities and the fingerprint baseline. The feature vectors are the polygonal angle, sides, area, type and the ridge counts in between the singularities. 100% recognition rate is achieved in this method. The method is compared with the conventional minutiae based recognition method in terms of computation time, receiver operator characteristics (ROC) and the feature vector length. Speech is a behavioural biometric modality and can be used for identification of a speaker. In this work, MFCC of text dependant speeches are computed and clustered using k-means algorithm. A backpropagation based Artificial Neural Network is trained to identify the clustered speech code. The performance of the neural network classifier is compared with the VQ based Euclidean minimum classifier. Biometric systems that use a single modality are usually affected by problems like noisy sensor data, non-universality and/or lack of distinctiveness of the biometric trait, unacceptable error rates, and spoof attacks. Multifinger feature level fusion based fingerprint recognition is developed and the performances are measured in terms of the ROC curve. Score level fusion of fingerprint and speech based recognition system is done and 100% accuracy is achieved for a considerable range of matching threshold