907 resultados para Deliberate fire, repetition, crime analysis, intelligence led-policing, forensic intelligence


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire porte sur l’étude de deux réseaux d’eau distincts, soit celui de la ville d’Arthabaska et celui de la ville de Victoriaville. Nous souhaitons éclairer le rôle joué par les facteurs environnementaux, naturels et urbains, au cours du processus ayant mené à l’implantation de réseaux d’eau potable et d’eaux usées dans les deux villes à l’étude. Divers travaux ont traité de la mise en place des réseaux d’aqueduc et d’égout à la grandeur du Canada. Toutefois, ce sont essentiellement les grandes villes comme Montréal ou Toronto qui ont retenu l’attention de l’histoire urbaine, politique et environnementale canadienne. L’objectif de cette démarche consiste à montrer que le milieu physique rural doit être incorporé à l’analyse comme élément vivant qui se transforme, qui influence et qui est influencé à son tour par l’être humain, puisqu’un et l’autre sont en constante interaction. Nous soutenons que la mise en place et le développement de réseaux d’eau sont influencés par le territoire dans lequel ils sont implantés et qu’ils ne peuvent pas être correctement analysés sans celui-ci. Afin de mettre l’espace au cœur de l’étude, nous avons mené une analyse des villes d’Arthabaska et de Victoriaville en considérant la géographie de la région à l’aide des cartes et des plans d’assurance-incendie, en plus de consulter des documents officiels et des articles tirés des journaux locaux.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les antipsychotiques de deuxième génération (ADG) sont de plus en plus employés dans le traitement de troubles psychiatriques. Selon de nombreuses observations cliniques, les effets secondaires reliés à la prise d’ADG diffèrent chez les patients atteints de schizophrénie (SCZ) et de maladies affectives (MA) éprouvent divers. Ainsi, il s’avère nécessaire d’étudier la fréquence et l'intensité des effets secondaires induits par les ADG qui pourraient différer selon le diagnostic. Pour ce faire, nous avons effectué une revue systématique de la littérature afin d’identifier l’ensemble des études rapportant les effets secondaires de cinq ADG (aripiprazole, olanzapine, quétiapine, rispéridone et ziprasidone) dans le traitement de la schizophrénie ou des maladies affectives. Les effets secondaires métaboliques et extrapyramidaux ont été recueillis séparément pour les deux groupes de patients, puis ont été combinés dans une méta-analyse. Des méta-régressions ainsi que des sous-analyses ont également été effectuées dans le but de regarder l’effet de différents modérateurs (i.e. âge, genre, et dose). Dans la présente méta-analyse, 107 études ont été inclues. Les résultats montrent que le traitement avec l’olanzapine a occasionné une plus importante prise de poids chez les patients SCZ comparativement aux patients MA. De plus, le traitement à la quétiapine a amené une hausse significative du taux de LDL et de cholestérol total dans le groupe SCZ par rapport au groupe MA. Selon nos résultats, les symptômes extrapyramidaux étaient plus fréquents dans le groupe MA, excepté pour le traitement à l'olanzapine qui a induit davantage de ces symptômes chez les patients SCZ. Également, nos résultats suggèrent que les patients SCZ seraient plus vulnérables à certains effets métaboliques induits par les ADG dû à une possible susceptibilité génétique ou à la présence de facteurs de risque associés au style de vie. D'autre part, les patients MA en comparaison aux SCZ étaient plus enclins à souffrir de troubles du mouvement induits par les ADG. Bref, les ADG semblent exacerber certains types d’effets secondaires tout dépendant de la maladie dans laquelle on les utilise.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La collusion est une pratique anticoncurrentielle qui a pour but la coopération de personnes morales afin d’atteindre un but commun tel que le profit. Cette méthode se retrouve dans le milieu de la construction notamment par la rotation de contrat, par la fixation de prix ou le débalancement de bordereaux. Bien que la collusion dans la construction soit souvent associée au crime organisé, cette étude propose l’hypothèse d’un contrôle du marché par le crime organisant et non le crime organisé. Ainsi, l’industrie de la construction serait influencée par une organisation en mouvance et en développement constant pouvant s’organiser tout en organisant d’autres noyaux. En analysant le marché de l’industrie de la construction, cette étude a pu relever qu’il était possible à l’aide d’outils quantitatifs tels que l’analyse de classification d’identifier des irrégularités au sein du marché, au fil des années. Des entrevues passées auprès d’acteurs du domaine de la construction sont venues confirmer l’hypothèse d’un contrôle du marché par le crime organisant et non le crime organisé. L’analyse qualitative se penchait ainsi sur les motivations des acteurs à entreprendre des pratiques anticoncurrentielles et sur la compréhension de l’émergence de la collusion dans la construction. La discussion identifie les opportunités criminelles, de même que les problématiques survenant dans le milieu de la construction et pouvant influencer l’émergence de la collusion. Ces problématiques concernent les contributions aux partis politiques, le truquage des devis et bordereaux par les firmes de consultants, l’impunité des autorités, l’historicité des entrepreneurs, l’idéologie de marché et les problématiques liées au cautionnement. Enfin, des solutions adaptées à la réalité de l’industrie de la construction en tenant compte des facteurs de risque ont été identifiées.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse prend pour objet le nouage entre l’autoréflexivité et la mise en forme esthétique dans la poésie de Christophe Tarkos, produite dans les années 1990. Elle met en lumière les rapports entre l’élaboration d’une théorie du langage au sein de cette œuvre poétique et ses visées esthétiques totalisantes. Il s’agit d’identifier les principes générateurs de la théorie et de fournir une analyse de ses fondements qui s’ancrent dans la crise de la représentation moderne commençant dans la deuxième moitié du dix-neuvième siècle. Les motifs de la crise revisités par Tarkos inscrivent sa poésie dans une historicité, et notre thèse tente d’interpréter cette actualisation dans une œuvre qui donne forme au monde et à la mémoire individuelle. L’hypothèse qui chapeaute notre étude est que la théorie du langage favorise l’intelligibilité de l’œuvre totalisante en lui offrant un support réflexif. Notre thèse, qui privilégie une méthode fondée sur l’analyse des textes, se divise en trois parties. La première propose une recension de la réception critique de l’œuvre, dont nous retraçons les grandes lignes d’interprétation, de Christian Prigent à Jean-Michel Espitallier. Tout en plaçant Tarkos dans le champ poétique français, cette étape nous permet de positionner notre recherche par rapport à certains lieux communs de la critique. La deuxième partie vise à étudier la théorie du langage de Tarkos à partir de ses manifestes principaux (Le Signe =, Manifeste chou, Ma langue est poétique et La poésie est une intelligence) qui révèlent plusieurs principes, pouvoirs et limites de la langue et de la poésie. Afin de montrer la spécificité du concept de la « pâte-mot » de Tarkos, nous l’étudions dans un dialogue avec la figure de la « pâte » langagière chez la poète française Danielle Collobert. La troisième partie propose une étude de la volonté et de l’esthétique totalisantes dans l’œuvre de Tarkos, qui cherche à donner forme au réel. En effet, la poésie répond à l’excès du réel par diverses stratégies. Tout en voulant représenter son caractère débordant par une énonciation logorrhéique ou en usant de procédés comme celui de la répétition, elle cherche à le maîtriser dans des formes textuelles stables comme des fragments de prose « carrés » (Carrés, Caisses), dans des listes énumératives (Anachronisme) ou dans des réseaux d’images. La volonté totalisante chez Tarkos semble également prendre origine dans un sentiment d’urgence qui concerne, en dernière instance, une bataille contre la finitude.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescent (SIA) est une déformation tri-dimensionelle du rachis. Son traitement comprend l’observation, l’utilisation de corsets pour limiter sa progression ou la chirurgie pour corriger la déformation squelettique et cesser sa progression. Le traitement chirurgical reste controversé au niveau des indications, mais aussi de la chirurgie à entreprendre. Malgré la présence de classifications pour guider le traitement de la SIA, une variabilité dans la stratégie opératoire intra et inter-observateur a été décrite dans la littérature. Cette variabilité s’accentue d’autant plus avec l’évolution des techniques chirurgicales et de l’instrumentation disponible. L’avancement de la technologie et son intégration dans le milieu médical a mené à l’utilisation d’algorithmes d’intelligence artificielle informatiques pour aider la classification et l’évaluation tridimensionnelle de la scoliose. Certains algorithmes ont démontré être efficace pour diminuer la variabilité dans la classification de la scoliose et pour guider le traitement. L’objectif général de cette thèse est de développer une application utilisant des outils d’intelligence artificielle pour intégrer les données d’un nouveau patient et les évidences disponibles dans la littérature pour guider le traitement chirurgical de la SIA. Pour cela une revue de la littérature sur les applications existantes dans l’évaluation de la SIA fut entreprise pour rassembler les éléments qui permettraient la mise en place d’une application efficace et acceptée dans le milieu clinique. Cette revue de la littérature nous a permis de réaliser que l’existence de “black box” dans les applications développées est une limitation pour l’intégration clinique ou la justification basée sur les évidence est essentielle. Dans une première étude nous avons développé un arbre décisionnel de classification de la scoliose idiopathique basé sur la classification de Lenke qui est la plus communément utilisée de nos jours mais a été critiquée pour sa complexité et la variabilité inter et intra-observateur. Cet arbre décisionnel a démontré qu’il permet d’augmenter la précision de classification proportionnellement au temps passé à classifier et ce indépendamment du niveau de connaissance sur la SIA. Dans une deuxième étude, un algorithme de stratégies chirurgicales basé sur des règles extraites de la littérature a été développé pour guider les chirurgiens dans la sélection de l’approche et les niveaux de fusion pour la SIA. Lorsque cet algorithme est appliqué à une large base de donnée de 1556 cas de SIA, il est capable de proposer une stratégie opératoire similaire à celle d’un chirurgien expert dans prêt de 70% des cas. Cette étude a confirmé la possibilité d’extraire des stratégies opératoires valides à l’aide d’un arbre décisionnel utilisant des règles extraites de la littérature. Dans une troisième étude, la classification de 1776 patients avec la SIA à l’aide d’une carte de Kohonen, un type de réseaux de neurone a permis de démontrer qu’il existe des scoliose typiques (scoliose à courbes uniques ou double thoracique) pour lesquelles la variabilité dans le traitement chirurgical varie peu des recommandations par la classification de Lenke tandis que les scolioses a courbes multiples ou tangentielles à deux groupes de courbes typiques étaient celles avec le plus de variation dans la stratégie opératoire. Finalement, une plateforme logicielle a été développée intégrant chacune des études ci-dessus. Cette interface logicielle permet l’entrée de données radiologiques pour un patient scoliotique, classifie la SIA à l’aide de l’arbre décisionnel de classification et suggère une approche chirurgicale basée sur l’arbre décisionnel de stratégies opératoires. Une analyse de la correction post-opératoire obtenue démontre une tendance, bien que non-statistiquement significative, à une meilleure balance chez les patients opérés suivant la stratégie recommandée par la plateforme logicielle que ceux aillant un traitement différent. Les études exposées dans cette thèse soulignent que l’utilisation d’algorithmes d’intelligence artificielle dans la classification et l’élaboration de stratégies opératoires de la SIA peuvent être intégrées dans une plateforme logicielle et pourraient assister les chirurgiens dans leur planification préopératoire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En apprentissage automatique, domaine qui consiste à utiliser des données pour apprendre une solution aux problèmes que nous voulons confier à la machine, le modèle des Réseaux de Neurones Artificiels (ANN) est un outil précieux. Il a été inventé voilà maintenant près de soixante ans, et pourtant, il est encore de nos jours le sujet d'une recherche active. Récemment, avec l'apprentissage profond, il a en effet permis d'améliorer l'état de l'art dans de nombreux champs d'applications comme la vision par ordinateur, le traitement de la parole et le traitement des langues naturelles. La quantité toujours grandissante de données disponibles et les améliorations du matériel informatique ont permis de faciliter l'apprentissage de modèles à haute capacité comme les ANNs profonds. Cependant, des difficultés inhérentes à l'entraînement de tels modèles, comme les minima locaux, ont encore un impact important. L'apprentissage profond vise donc à trouver des solutions, en régularisant ou en facilitant l'optimisation. Le pré-entraînnement non-supervisé, ou la technique du ``Dropout'', en sont des exemples. Les deux premiers travaux présentés dans cette thèse suivent cette ligne de recherche. Le premier étudie les problèmes de gradients diminuants/explosants dans les architectures profondes. Il montre que des choix simples, comme la fonction d'activation ou l'initialisation des poids du réseaux, ont une grande influence. Nous proposons l'initialisation normalisée pour faciliter l'apprentissage. Le second se focalise sur le choix de la fonction d'activation et présente le rectifieur, ou unité rectificatrice linéaire. Cette étude a été la première à mettre l'accent sur les fonctions d'activations linéaires par morceaux pour les réseaux de neurones profonds en apprentissage supervisé. Aujourd'hui, ce type de fonction d'activation est une composante essentielle des réseaux de neurones profonds. Les deux derniers travaux présentés se concentrent sur les applications des ANNs en traitement des langues naturelles. Le premier aborde le sujet de l'adaptation de domaine pour l'analyse de sentiment, en utilisant des Auto-Encodeurs Débruitants. Celui-ci est encore l'état de l'art de nos jours. Le second traite de l'apprentissage de données multi-relationnelles avec un modèle à base d'énergie, pouvant être utilisé pour la tâche de désambiguation de sens.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le suivi thérapeutique est recommandé pour l’ajustement de la dose des agents immunosuppresseurs. La pertinence de l’utilisation de la surface sous la courbe (SSC) comme biomarqueur dans l’exercice du suivi thérapeutique de la cyclosporine (CsA) dans la transplantation des cellules souches hématopoïétiques est soutenue par un nombre croissant d’études. Cependant, pour des raisons intrinsèques à la méthode de calcul de la SSC, son utilisation en milieu clinique n’est pas pratique. Les stratégies d’échantillonnage limitées, basées sur des approches de régression (R-LSS) ou des approches Bayésiennes (B-LSS), représentent des alternatives pratiques pour une estimation satisfaisante de la SSC. Cependant, pour une application efficace de ces méthodologies, leur conception doit accommoder la réalité clinique, notamment en requérant un nombre minimal de concentrations échelonnées sur une courte durée d’échantillonnage. De plus, une attention particulière devrait être accordée à assurer leur développement et validation adéquates. Il est aussi important de mentionner que l’irrégularité dans le temps de la collecte des échantillons sanguins peut avoir un impact non-négligeable sur la performance prédictive des R-LSS. Or, à ce jour, cet impact n’a fait l’objet d’aucune étude. Cette thèse de doctorat se penche sur ces problématiques afin de permettre une estimation précise et pratique de la SSC. Ces études ont été effectuées dans le cadre de l’utilisation de la CsA chez des patients pédiatriques ayant subi une greffe de cellules souches hématopoïétiques. D’abord, des approches de régression multiple ainsi que d’analyse pharmacocinétique de population (Pop-PK) ont été utilisées de façon constructive afin de développer et de valider adéquatement des LSS. Ensuite, plusieurs modèles Pop-PK ont été évalués, tout en gardant à l’esprit leur utilisation prévue dans le contexte de l’estimation de la SSC. Aussi, la performance des B-LSS ciblant différentes versions de SSC a également été étudiée. Enfin, l’impact des écarts entre les temps d’échantillonnage sanguins réels et les temps nominaux planifiés, sur la performance de prédiction des R-LSS a été quantifié en utilisant une approche de simulation qui considère des scénarios diversifiés et réalistes représentant des erreurs potentielles dans la cédule des échantillons sanguins. Ainsi, cette étude a d’abord conduit au développement de R-LSS et B-LSS ayant une performance clinique satisfaisante, et qui sont pratiques puisqu’elles impliquent 4 points d’échantillonnage ou moins obtenus dans les 4 heures post-dose. Une fois l’analyse Pop-PK effectuée, un modèle structural à deux compartiments avec un temps de délai a été retenu. Cependant, le modèle final - notamment avec covariables - n’a pas amélioré la performance des B-LSS comparativement aux modèles structuraux (sans covariables). En outre, nous avons démontré que les B-LSS exhibent une meilleure performance pour la SSC dérivée des concentrations simulées qui excluent les erreurs résiduelles, que nous avons nommée « underlying AUC », comparée à la SSC observée qui est directement calculée à partir des concentrations mesurées. Enfin, nos résultats ont prouvé que l’irrégularité des temps de la collecte des échantillons sanguins a un impact important sur la performance prédictive des R-LSS; cet impact est en fonction du nombre des échantillons requis, mais encore davantage en fonction de la durée du processus d’échantillonnage impliqué. Nous avons aussi mis en évidence que les erreurs d’échantillonnage commises aux moments où la concentration change rapidement sont celles qui affectent le plus le pouvoir prédictif des R-LSS. Plus intéressant, nous avons mis en exergue que même si différentes R-LSS peuvent avoir des performances similaires lorsque basées sur des temps nominaux, leurs tolérances aux erreurs des temps d’échantillonnage peuvent largement différer. En fait, une considération adéquate de l'impact de ces erreurs peut conduire à une sélection et une utilisation plus fiables des R-LSS. Par une investigation approfondie de différents aspects sous-jacents aux stratégies d’échantillonnages limités, cette thèse a pu fournir des améliorations méthodologiques notables, et proposer de nouvelles voies pour assurer leur utilisation de façon fiable et informée, tout en favorisant leur adéquation à la pratique clinique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Au Canada, les discours politiques entourant la question des politiques pénales ont parfois été favorables à la répression, et parfois favorables à la réhabilitation et la littérature démontre qu’au cours des années, nous avons toujours nuancé notre approche à l’aide d’une philosophie pénale dichotomique, favorisant le juste équilibre entre ces deux rationalités pénales. Depuis l’arrivée du gouvernement conservateur en 2006 et malgré une baisse de l’activité criminelle enregistrée, l’activité législative en matière criminelle et pénale s’est intensifiée. En 2011, le gouvernement a ainsi déposé le projet de loi C-10, une loi omnibus comprenant 5 volets distincts, chacun mettant en place des changements important sur différentes dimensions du processus criminel ou pénal. L’objet de notre étude consiste, à partir de l’analyse des débats entourant l’adoption de ce projet de loi C-10, à comprendre les représentations du crime, du criminel et de la sanction pénale, et ce à partir de l’analyse documentaire thématique. Le corpus utilisé dans ce mémoire est formé de débats parlementaires ayant eu lieu à la Chambre des communes entre le 20 septembre 2011 et le 6 décembre 2011. Il ressort de notre analyse que la perspective dualiste d’autrefois a disparu au détriment d’une perspective pénale axée sur la protection en favorisant la rétribution, réprobation et la neutralisation. Nos résultats soulignent l’importance de l’émotion et du sensationnel dans les débats, ainsi que l’arrivée d’une pénalité politisée.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La société québécoise a, comme toutes les sociétés, ses crimes et criminels légendaires. Or, si ces faits divers célèbres ont fait l’objet, dans les dernières décennies, de quelques reconstitutions historiographiques, on connaît beaucoup moins, en revanche, le mécanisme de leur légendarisation, le processus historique et culturel par lequel ils passent du « fait divers » au fait mémorable. C’est d’abord ce processus que s’attache à étudier cette thèse de doctorat, qui porte sur quatre crimes célèbres des XVIIIe et XIXe siècles (le meurtre du seigneur de Kamouraska [1839] ainsi que les crimes commis par « la Corriveau » [1763], par le « docteur l’Indienne » [1829] et par les « brigands du Cap-Rouge » [1834-1835]) : pour chacun de ces cas particuliers, l’analyse reconstitue la généalogie des représentations du crime et du criminel de manière à retracer la fabrication et l’évolution d’une mémoire collective. Celles-ci font chaque fois intervenir un système complexe de discours : au croisement entre les textes de presse, les récits issus de la tradition orale et les textes littéraires, l’imaginaire social fabrique, à partir de faits criminels ordinaires, de grandes figures antagoniques, incarnations du mal ou avatars du diable. Ce vaste processus d’antagonisation est en fait largement tributaire d’une époque (le XIXe siècle) où, dans les sociétés occidentales, le « crime » se trouve soudainement placé au cœur de toutes les préoccupations sociales et politiques : l’époque invente un véritable engouement littéraire pour le crime de même que tout un arsenal de savoirs spécialisés, d’idées nouvelles et de technologies destinées à connaître, mesurer et enrayer la criminalité. Dès les premières décennies du XIXe siècle, le phénomène se propage de ce côté-ci de l’Atlantique. Dans la foulée, les grands criminels qui marquent la mémoire collective sont appelés à devenir des ennemis imaginaires particulièrement rassembleurs : figures d’une altérité radicale, ils en viennent à constituer le repoussoir contre lequel, à partir du XIXe siècle, s’est en partie instituée la société québécoise.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans ce texte, nous soumettons à examen la conception de l'autisme avancée par Laurent Mottron dans son ouvrage L'autisme : une autre intelligence (Mottron, 2004). Le texte comprend quatre parties. Dans la première partie, nous présentons le cadre paradigmatique de l'auteur en matière de troubles envahissants et l'emphase mise sur une catégorie qu'il tient pour majoritaire bien que négligée dans la littérature scientifique et dans les réseaux de services : les troubles envahissants du développement sans déficienceintellectuelle (TEDSDI). Il assimile ce groupe à un nouvel autisme dominant. Dans la deuxième partie, nous montronsque souscrire à l'idée de l'autisme comme une autre forme d'intelligence ne permet pas une conceptualisation adéquate des capacités ni des déficits des personnes concernées. La troisième partie, aborde le problème du traitement de l'autisme. À l'encontre des propos de Mottron, nous défendons la pertinence de traiter l'autisme, notamment par I'intervention comportementale intensive (lCI) et l'analyse appliquée du comportement et jugeons sa position anachronique. D'autre part, la prépondérance et quasiexclusivité qu'il accorde à TEACCH comme réponse sociopsycho-pédagogique apparaît injustifiée. La quatrième partie constitue une critique de l'analyse des émotions chez les personnes autistes que fait l'auteur à partir d'écrits autobiographiques, un retour vers l'introspection comme méthode de recherche. En conclusion, nous déplorons le ton général du propos, trop dialectique, notamment dans sa dichotomisation entre autistes et non autistes. Le militantisme de Mottron pour les « autistes » sans déficience intellectuelle déçoit, de même que le débordement idéologique de sa théorie en faveur de la reconnaissance d'une culture autistique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The hazards associated with major accident hazard (MAH) industries are fire, explosion and toxic gas releases. Of these, toxic gas release is the worst as it has the potential to cause extensive fatalities. Qualitative and quantitative hazard analyses are essential for the identitication and quantification of the hazards associated with chemical industries. This research work presents the results of a consequence analysis carried out to assess the damage potential of the hazardous material storages in an industrial area of central Kerala, India. A survey carried out in the major accident hazard (MAH) units in the industrial belt revealed that the major hazardous chemicals stored by the various industrial units are ammonia, chlorine, benzene, naphtha, cyclohexane, cyclohexanone and LPG. The damage potential of the above chemicals is assessed using consequence modelling. Modelling of pool fires for naphtha, cyclohexane, cyclohexanone, benzene and ammonia are carried out using TNO model. Vapor cloud explosion (VCE) modelling of LPG, cyclohexane and benzene are carried out using TNT equivalent model. Boiling liquid expanding vapor explosion (BLEVE) modelling of LPG is also carried out. Dispersion modelling of toxic chemicals like chlorine, ammonia and benzene is carried out using the ALOHA air quality model. Threat zones for different hazardous storages are estimated based on the consequence modelling. The distance covered by the threat zone was found to be maximum for chlorine release from a chlor-alkali industry located in the area. The results of consequence modelling are useful for the estimation of individual risk and societal risk in the above industrial area.Vulnerability assessment is carried out using probit functions for toxic, thermal and pressure loads. Individual and societal risks are also estimated at different locations. Mapping of threat zones due to different incident outcome cases from different MAH industries is done with the help of Are GIS.Fault Tree Analysis (FTA) is an established technique for hazard evaluation. This technique has the advantage of being both qualitative and quantitative, if the probabilities and frequencies of the basic events are known. However it is often difficult to estimate precisely the failure probability of the components due to insufficient data or vague characteristics of the basic event. It has been reported that availability of the failure probability data pertaining to local conditions is surprisingly limited in India. This thesis outlines the generation of failure probability values of the basic events that lead to the release of chlorine from the storage and filling facility of a major chlor-alkali industry located in the area using expert elicitation and proven fuzzy logic. Sensitivity analysis has been done to evaluate the percentage contribution of each basic event that could lead to chlorine release. Two dimensional fuzzy fault tree analysis (TDFFTA) has been proposed for balancing the hesitation factor invo1ved in expert elicitation .

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Occupational stress is becoming a major issue in both corporate and social agenda .In industrialized countries, there have been quite dramatic changes in the conditions at work, during the last decade ,caused by economic, social and technical development. As a consequence, the people today at work are exposed to high quantitative and qualitative demands as well as hard competition caused by global economy. A recent report says that ailments due to work related stress is likely to cost India’s exchequer around 72000 crores between 2009 and 2015. Though India is a fast developing country, it is yet to create facilities to mitigate the adverse effects of work stress, more over only little efforts have been made to assess the work related stress.In the absence of well defined standards to assess the work related stress in India, an attempt is made in this direction to develop the factors for the evaluation of work stress. Accordingly, with the help of existing literature and in consultation with the safety experts, seven factors for the evaluation of work stress is developed. An instrument ( Questionnaire) was developed using these seven factors for the evaluation of work stress .The validity , and unidimensionality of the questionnaire was ensured by confirmatory factor analysis. The reliability of the questionnaire was ensured before administration. While analyzing the relation ship between the variables, it is noted that no relationship exists between them, and hence the above factors are treated as independent factors/ variables for the purpose of research .Initially five profit making manufacturing industries, under public sector in the state of Kerala, were selected for the study. The influence of factors responsible for work stress is analyzed in these industries. These industries were classified in to two types, namely chemical and heavy engineering ,based on the product manufactured and work environment and the analysis is further carried out for these two categories.The variation of work stress with different age , designation and experience of the employees are analyzed by means of one-way ANOVA. Further three different type of modelling of work stress, namely factor modelling, structural equation modelling and multinomial logistic regression modelling was done to analyze the association of factors responsible for work stress. All these models are found equally good in predicting the work stress.The present study indicates that work stress exists among the employees in public sector industries in Kerala. Employees belonging to age group 40-45yrs and experience groups 15-20yrs had relatively higher work demand ,low job control, and low support at work. Low job control was noted among lower designation levels, particularly at the worker level in these industries. Hence the instrument developed using the seven factors namely demand, control, manager support, peer support, relationship, role and change can be effectively used for the evaluation of work stress in industries.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Data centre is a centralized repository,either physical or virtual,for the storage,management and dissemination of data and information organized around a particular body and nerve centre of the present IT revolution.Data centre are expected to serve uniinterruptedly round the year enabling them to perform their functions,it consumes enormous energy in the present scenario.Tremendous growth in the demand from IT Industry made it customary to develop newer technologies for the better operation of data centre.Energy conservation activities in data centre mainly concentrate on the air conditioning system since it is the major mechanical sub-system which consumes considerable share of the total power consumption of the data centre.The data centre energy matrix is best represented by power utilization efficiency(PUE),which is defined as the ratio of the total facility power to the IT equipment power.Its value will be greater than one and a large value of PUE indicates that the sub-systems draw more power from the facility and the performance of the data will be poor from the stand point of energy conservation. PUE values of 1.4 to 1.6 are acievable by proper design and management techniques.Optimizing the air conditioning systems brings enormous opportunity in bringing down the PUE value.The air conditioning system can be optimized by two approaches namely,thermal management and air flow management.thermal management systems are now introduced by some companies but they are highly sophisticated and costly and do not catch much attention in the thumb rules.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This work identifies the importance of plenum pressure on the performance of the data centre. The present methodology followed in the industry considers the pressure drop across the tile as a dependant variable, but it is shown in this work that this is the only one independent variable that is responsible for the entire flow dynamics in the data centre, and any design or assessment procedure must consider the pressure difference across the tile as the primary independent variable. This concept is further explained by the studies on the effect of dampers on the flow characteristics. The dampers have found to introduce an additional pressure drop there by reducing the effective pressure drop across the tile. The effect of damper is to change the flow both in quantitative and qualitative aspects. But the effect of damper on the flow in the quantitative aspect is only considered while using the damper as an aid for capacity control. Results from the present study suggest that the use of dampers must be avoided in data centre and well designed tiles which give required flow rates must be used in the appropriate locations. In the present study the effect of hot air recirculation is studied with suitable assumptions. It identifies that, the pressure drop across the tile is a dominant parameter which governs the recirculation. The rack suction pressure of the hardware along with the pressure drop across the tile determines the point of recirculation in the cold aisle. The positioning of hardware in the racks play an important role in controlling the recirculation point. The present study is thus helpful in the design of data centre air flow, based on the theory of jets. The air flow can be modelled both quantitatively and qualitatively based on the results.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In the present study the effect of hot air recirculation is studied with suitable assumptions. It identifies that, the pressure drop across the tile is a dominant parameter which governs the recirculation. The rack suction pressure of the hardware along with the pressure drop across the tile determines the point of recirculation in the cold aisle. The positioning of hardware in the racks play an important role in controlling the recirculation point. The present study is thus helpful in the design of data centre air flow, based on the theory of jets. The air flow can be modelled both quantitatively and qualitatively based on the results