356 resultados para Tiers
Resumo:
L'étude de la représentation de la maladie d'Alzheimer dans Le monde de Barney de Mordecai Richler, de Trois-Pistoles et les Basques, le pays de mon père de Victor-Lévy Beaulieu et de "Je ne suis pas sortie de ma nuit", d'Annie Ernaux permet d'esquisser les contours d'une spécificité littéraire de la maladie, bien au-delà du thème de l'oubli. N'envisager la maladie d'Alzheimer qu'en termes de dégénérescence cognitive, c'est évacuer sa dimension de matériau littéraire qui influence tant la construction que le style d'un texte. L'analyse de trois récits contemporains permet l'identification de procédés rhétoriques mais aussi de stratégies narratives et stylistiques qui servent à circonscrire l'empreinte littéraire propre à la maladie d'Alzheimer. La prise en charge du récit par un tiers parti explique la thématique de la filiation qui donne à voir la maladie de l'intérieur et de l'extérieur. L'oeuvre de création s'inscrit dans ce travail d'archivage de la mémoire familiale. Une petite-fille s'adresse indirectement à sa grand-mère qui souffre de la maladie d'Alzheimer. Nous suivons l'évolution de la maladie et sommes témoins de l'effritement des souvenirs et du discours de la grand-mère.
Psychopathie chez les individus non incarcérés et coopération dans un dilemme du prisonnier itératif
Resumo:
Au niveau interpersonnel, la psychopathie implique un manque de considération d’autrui pouvant se manifester par la tromperie, la manipulation et l’exploitation. La présente thèse a investigué la relation entre les caractéristiques psychopathiques d'individus non incarcérés et la tendance à coopérer dans un jeu du dilemme du prisonnier itératif. Un total de 85 hommes ont été recrutés via une annonce qui ciblait des traits de personnalité correspondant à des caractéristiques psychopathiques exprimées de façon non péjorative. Plusieurs méthodes ont été employées pour rejoindre les participants : 46 ont participés en personne après avoir répondu à une invitation affichée dans un journal local ainsi que sur des babillards à proximité d'une université; 39 ont complété l'étude sur Internet après avoir été recrutés via un site web de petites annonces. Chaque participant a répondu à un questionnaire incluant l’Échelle Auto-rapportée de Psychopathie (Levenson, Kiehl, & Fitzpatrick, 1995) et l’Échelle Auto-rapportée des Indicateurs de Psychopathie de l’Enfance et de l’Adolescence (Seto, Khattar, Lalumière, & Quinsey, 1997). Ils ont également complété une simulation informatique du dilemme du prisonnier itératif comprenant 90 essais. La simulation informatique utilisée pour évaluer les participants en personne ainsi que la version accessible par Internet ont été conçues et programmées spécifiquement pour la présente thèse. La simulation informatique incluait trois stratégies souvent associées au dilemme du prisonnier itératif : donnant-donnant, donnant-donnant-généreux et gagne/reste-perd/change. Les analyses préliminaires ont montré que les participants vus en personne et ceux rejoints par Internet ne différaient pas en termes de variables sociodémographiques, des caractéristiques psychopathiques, de la désirabilité sociale et des réponses au dilemme du prisonnier. Une régression multiple standard a indiqué que les mesures psychopathiques ne pouvaient pas prédire le nombre total de choix coopératifs dans le jeu. Par contre, une corrélation négative a été trouvée entre les caractéristiques interpersonnelles et affectives de la psychopathie et la coopération dans le premier tiers du jeu. De plus, les participants qui présentaient davantage de caractéristiques psychopathiques interpersonnelles et affectives avaient plus souvent réussi à exploiter l'ordinateur en dénonçant alors que la simulation informatique coopérait. Des analyses multi-niveaux ont exploré la contribution de variables au niveau de la décision et au niveau de l'individu dans la prédiction du choix de coopérer ou de dénoncer lors de chaque essai du jeu; les interactions entre ces variables ont aussi été considérées. Les résultats ont montré que les variables au niveau de la décision influençaient généralement plus fortement les chances de coopérer que les variables au niveau de l'individu. Parmi les mesures de la psychopathie, seulement les caractéristiques interpersonnelles et affectives ont montré une association significative avec les chances de coopérer; les interactions avec le premier choix effectué dans le jeu et le premier tiers du jeu étaient significatives. Ainsi, si un participant avait coopéré au premier essai, la présence de caractéristiques psychopathiques interpersonnelles et affectives était associée à une diminution de ses chances de coopérer par la suite. Aussi, durant les 30 premiers essais du jeu, la présence de caractéristiques psychopathiques interpersonnelles et affectives était associée à une diminution des chances de coopérer. La stratégie adoptée par la simulation informatique n'avait pas d'influence sur le lien entre les caractéristiques psychopathiques et la probabilité de coopérer. Toutefois, le fait de jouer contre donnant-donnant était associé à de plus fortes chances de coopérer d'un essai à l'autre pour l'ensemble des participants. Globalement, les résultats suggèrent que les hommes non incarcérés présentant des caractéristiques psychopathiques ne seraient pas nécessairement portés à choisir systématiquement la non-coopération. En fait, les caractéristiques interpersonnelles et affectives de la psychopathie ont semblé se traduire par une tendance à faire bonne impression au départ, tenter rapidement d'exploiter autrui en dénonçant, puis finir par coopérer. Cette tendance comportementale est discutée, ainsi que la pertinence d'utiliser le dilemme du prisonnier itératif et les analyses multi-niveaux pour étudier le comportement interpersonnel des psychopathes.
Resumo:
Cette étude a pour principal objectif d’examiner l’usage de la caméra à l’épaule dans les films de fiction Faces de John Cassavetes et La Vie nouvelle de Philippe Grandrieux. Loin d’associer la caméra portée à la vision subjective d’un personnage, ces cinéastes semblent plutôt inscrire la caméra et son tremblé comme un tiers autonome qui entre néanmoins dans la zone fictionnelle. Par la position similaire qu’ils attribuent à la caméra et par l’importance qu’ils accordent à l’improvisation au tournage, ces deux cinéastes créent une proximité entre le personnage et la caméra, qui a un impact sur l’esthétique visuelle de leurs films. De par cette esthétique affectée, l’expérience vécue par le spectateur devant le film est intensifiée. En interrogeant le processus de création, l’esthétique de la caméra à l’épaule ainsi que la réception spectatorielle, nous verrons comment un tel transfert d’affect est rendu possible par cette tripartition. Pour faire l’analyse de ce transfert affectif, phénomène causé par ce que nous pourrons appeler la caméra catalytique, nous nous appuierons sur quelques philosophies choisies.
Resumo:
Cette thèse vise à étudier les liens entre les rêves dysphoriques (p. ex. : cauchemars et mauvais rêves), les rêves récurrents et l’ajustement psychosocial chez les enfants et les adolescents. Elle comporte un article présentant une recension des écrits ainsi que quatre articles empiriques. Le premier article présente une recension des études ayant investigué les rêves dysphoriques chez les enfants et les adolescents, avec une attention particulière portée sur leur prévalence, leurs corrélats ainsi que les options de traitement. Cette revue de la littérature permet de constater que plus de la moitié des jeunes rapportent des rêves dysphoriques. Même s’ils touchent beaucoup de jeunes, les rêves dysphoriques ne sont pas pour autant insignifiants. En effet, les enfants et les adolescents ayant des rêves dysphoriques ont aussi plus de problèmes reliés au sommeil et plus de problèmes au niveau de leur ajustement psychosocial. Finalement, l’article relève quelques recherches sur les traitements des rêves dysphoriques chez les jeunes qui offrent des résultats prometteurs. Le deuxième article vise à examiner les liens entre les rêves dysphoriques et diverses variables d’ajustement psychosocial en prenant en compte certaines limites méthodologiques d’études précédentes dans le domaine (et mises de l’avant dans l’article 1). De plus, il examine le possible lien modérateur de l’émotivité négative (traduction libre de « emotional negativity ») entre les rêves dysphoriques et l’ajustement psychosocial. Les résultats de cette étude montrent que les rêves dysphoriques sont liés à certains troubles intériorisés et que l’émotivité négative modère le lien entre les rêves dysphoriques et les troubles extériorisés. Le troisième article s’attarde aux rêves récurrents chez les enfants et les adolescents, phénomène très peu étudié à ce jour. Plus précisément, la prévalence et la fréquence des rêves récurrents chez les jeunes âgés entre 11 et 14 ans sont répertoriées et leur contenu, thématiques et tonalité émotionnelle sont examinés. Cet article démontre que les rêves récurrents touchent environ un tiers des jeunes et que leur contenu est principalement négatif. Le quatrième article vise à déterminer si, comme chez les adultes, les rêves récurrents chez les enfants sont associés à un déficit dans l’ajustement psychosocial. Les résultats montrent que les rêves récurrents sont liés à l’agressivité réactive chez les garçons, mais qu’ils ne sont pas liés à des variables d’ajustement psychosocial chez les filles. Le cinquième et dernier article a comme but de déterminer si, comme démontré chez les adultes, les rêves dysphoriques sont associés aux idéations suicidaires chez les préadolescents et d’explorer la possibilité que les rêves récurrents soient eux aussi liés aux idéations suicidaires. Les résultats démontrent que les rêves dysphoriques ainsi que les rêves récurrents sont liés aux pensées suicidaires chez des préadolescents de 12 et 13 ans. Suite à ces cinq articles, les résultats ainsi que les conclusions qui en découlent sont intégrés à la littérature existante sur les rêves, leurs significations au plan théorique et clinique sont explorées, et des études futures sont proposées.
Resumo:
Les nombreuses études cliniques sur les maladies affectant les noyaux gris centraux (NGC) ont montré l’importance des déficits moteurs engendrés par un dysfonctionnement de ces structures. La locomotion est particulièrement affectée chez ces patients, ce qui suggère un rôle important des NGC dans le contrôle de celle-ci. En revanche, très peu d’études fondamentales ont enregistré l’activité des neurones des NGC durant la locomotion chez des modèles intacts. Le globus pallidus, en tant qu’une des principales structures de sortie des NGC, constitue une cible idéale pour étudier le signal transmis par les NGC au thalamus et au tronc cérébral. L’objectif de notre étude est de mieux comprendre la contribution que joue le segment externe du globus pallidus (GPe) dans le contrôle de la locomotion sous guidage visuel. Cette étude constitue le premier rapport d’enregistrements de l’activité des neurones du GPe lors de modifications volontaires de la marche sous guidage visuel. Notre hypothèse générale est que le GPe contribue au contrôle de la locomotion, et particulièrement lors des modifications de la marche. Nous avons enregistré l’activité des neurones du GPe de chats au repos, puis marchant sur un tapis et enjambant des obstacles. Nos résultats ont révélé que la plupart des cellules montraient peu de changements lors de la locomotion non-obstruée par rapport au repos. En revanche, la moitié des neurones enregistrés présentaient une modulation significative de leur décharge durant l’enjambement de l’obstacle. Nous avons observé une majorité de ces cellules qui diminuaient leur fréquence et un tiers de neurones qui l’augmentaient pendant le pas modifié, suggérant que le GPe exerce sur le mouvement un contrôle dépendant du contexte, permettant sélectivement l’augmentation ou la diminution de l’activité motrice. De plus, presque toutes les cellules déchargeaient durant la totalité de la phase de balancement du membre antérieur controlatéral, ce qui semble indiquer une contribution du GPe dans le timing et la durée de cette phase. Finalement, la moitié des neurones présentaient un changement réciproque entre la condition de lead et la condition de trail. Ce résultat suggère que le GPe participerait à la sélection d’action du membre lors des modifications de la marche. Nos résultats illustrent la complexité de l’activité du GPe lors de la locomotion sous guidage visuel et ils sont compatibles avec une contribution plus générale au mouvement que celle exercée par le cortex moteur.
Resumo:
Cette thèse présente des reconstructions de l'irradiance totale et spectrale durant les 400 dernières années à l'aide des modèles pour l'irradiance totale et l'irradiance spectrale dans l'ultraviolet développés à l'Université de Montréal. Tous deux sont basés sur la simulation de l'émergence, de la fragmentation et de l'érosion des taches solaires, qui permet d'obtenir une distribution de l'aire des taches sombres et des facules brillantes en fonction du temps. Ces deux composantes sont principalement responsables de la variation de l'irradiance sur l'échelle de temps de la décennie, qui peut être calculée en sommant leur émissivité à celle de la photosphère inactive. La version améliorée du modèle d'irradiance solaire spectrale MOCASSIM inclut une extension de son domaine spectral entre 150 et 400 nm ainsi que de son domaine temporel, débutant originalement en 1874 et couvrant maintenant la période débutant en 1610 jusqu'au présent. Cela permet de reconstruire le spectre ultraviolet durant le minimum de Maunder et de le comparer à celui du minimum de 2009. Les conclusions tirées de cette étude spécifient que l'émissivité dans l'ultraviolet était plus élevée en 2009 que durant le minimum de Maunder, que le niveau de base de la photosphère non magnétisée contribuait pour environ les deux tiers de cette différence et que les structures magnétiques restantes étaient responsables pour le tiers restant. Le modèle d'irradiance totale a vu son domaine temporel étendu sur la même période et une composante représentant le réseau magnétique de façon réaliste y a été ajoutée. Il a été démontré que les observations des 30 dernières années ne sont bien reproduites qu'en incluant la composante du Soleil non magnétisé variable à long terme. Le processus d'optimisation des paramètres libres du modèle a été effectué en minimisant le carré de la somme de l'écart journalier entre les résultats des calculs et les données observées. Les trois composites disponibles, soit celui du PMOD (Physikalisch Meteorologisches Observatorium Davos), d'ACRIM (ACtive Radiometer Irradiance Monitor) et du IRMB (Institut Royal Météorologique de Belgique), ne sont pas en accord entre eux, en particulier au niveau des minima du cycle d'activité, et le modèle permet seulement de reproduire celui du PMOD avec exactitude lorsque la composante variable à long terme est proportionnelle au flux radio à 10.7 cm. Toutefois, en utilisant des polynômes de Lagrange pour représenter la variation du Soleil inactif, l'accord est amélioré pour les trois composites durant les minima, bien que les relations entre le niveau minimal de l'irradiance et la longueur du cycle précédent varient d'un cas à l'autre. Les résultats obtenus avec le modèle d'irradiance spectrale ont été utilisés dans une étude d'intercomparaison de la réponse de la photochimie stratosphérique à différentes représentations du spectre solaire. Les simulations en mode transitoire d'une durée de 10 jours ont été effectuées avec un spectre solaire constant correspondant soit à une période d'activité minimale ou à une période d'activité maximale. Ceci a permis d'évaluer la réponse de la concentration d'ozone à la variabilité solaire au cours d'un cycle et la différence entre deux minima. En plus de ceux de MOCASSIM, les spectres produits par deux modèles ont été utilisés (NRLSSI et MGNM) ainsi que les données de SIM et SOLSTICE/SORCE. La variabilité spectrale de chacun a été extraite et multipliée à un spectre de base représentant le minimum d'activité afin de simuler le spectre au maximum d'activité. Cela a été effectué dans le but d'isoler l'effet de la variabilité seule et d'exclure celui de la valeur absolue du spectre. La variabilité spectrale d'amplitude relativement élevée des observations de SORCE n'a pas provoqué l'inversion de la réponse de l'ozone à hautes altitudes obtenues par d'autres études, ce qui peut être expliqué par la nature même du modèle utilisé ainsi que par sa limite supérieure en altitude. Finalement, la réponse de l'ozone semble être à peu près proportionnelle à la variabilité de l'intégrale du flux pour lambda<241 nm. La comparaison des concentrations d'ozone obtenues avec les spectres originaux au minimum d'activité démontre que leur différence est du même ordre de grandeur que la variabilité entre le minimum et le maximum d'un cycle typique. Le problème du choix de la reconstruction de l'irradiance à utiliser pour les simulations climatiques dans le passé demeure non résolu.
Resumo:
Thèse soutenue le 27 février 2015 devant un jury composé par Marie-Hélène Benoit-Otis (présidente, Université de Montréal), François de Médicis (Université de Montréal), Christopher Moore (Université d'Ottawa) et Michel Duchesneau (Université de Montréal).
Resumo:
Prenant l’affaire Probo Koala en Côte d’Ivoire comme l’élément déclencheur d’une observation, ce mémoire étudie les fondements des mouvements transfrontières illégaux des déchets dangereux des pays développés vers les pays en développement. En effet, nonobstant la pluralité des dispositions juridiques internationales, le transfert des déchets illicites demeure une actualité dans les pays du tiers monde dont particulièrement ceux de l’Afrique noire et à la fois un tabou dans ceux du Nord et du Sud. Les deux domaines proposés, droit international et national, montrent comment les faiblesses et la non-application des dispositions juridiques conduisent à des actes socialement irresponsables. De ce fait, des réformes tant au niveau juridique que judiciaire ainsi que l’implication des parties prenantes sont suggérées comme solutions pour combattre ce fléau.
Resumo:
Cette thèse est une collection de trois articles en économie de l'information. Le premier chapitre sert d'introduction et les Chapitres 2 à 4 constituent le coeur de l'ouvrage. Le Chapitre 2 porte sur l’acquisition d’information sur l’Internet par le biais d'avis de consommateurs. En particulier, je détermine si les avis laissés par les acheteurs peuvent tout de même transmettre de l’information à d’autres consommateurs, lorsqu’il est connu que les vendeurs peuvent publier de faux avis à propos de leurs produits. Afin de comprendre si cette manipulation des avis est problématique, je démontre que la plateforme sur laquelle les avis sont publiés (e.g. TripAdvisor, Yelp) est un tiers important à considérer, autant que les vendeurs tentant de falsifier les avis. En effet, le design adopté par la plateforme a un effet indirect sur le niveau de manipulation des vendeurs. En particulier, je démontre que la plateforme, en cachant une partie du contenu qu'elle détient sur les avis, peut parfois améliorer la qualité de l'information obtenue par les consommateurs. Finalement, le design qui est choisi par la plateforme peut être lié à la façon dont elle génère ses revenus. Je montre qu'une plateforme générant des revenus par le biais de commissions sur les ventes peut être plus tolérante à la manipulation qu'une plateforme qui génère des revenus par le biais de publicité. Le Chapitre 3 est écrit en collaboration avec Marc Santugini. Dans ce chapitre, nous étudions les effets de la discrimination par les prix au troisième degré en présence de consommateurs non informés qui apprennent sur la qualité d'un produit par le biais de son prix. Dans un environnement stochastique avec deux segments de marché, nous démontrons que la discrimination par les prix peut nuire à la firme et être bénéfique pour les consommateurs. D'un côté, la discrimination par les prix diminue l'incertitude à laquelle font face les consommateurs, c.-à-d., la variance des croyances postérieures est plus faible avec discrimination qu'avec un prix uniforme. En effet, le fait d'observer deux prix (avec discrimination) procure plus d'information aux consommateurs, et ce, même si individuellement chacun de ces prix est moins informatif que le prix uniforme. De l'autre côté, il n'est pas toujours optimal pour la firme de faire de la discrimination par les prix puisque la présence de consommateurs non informés lui donne une incitation à s'engager dans du signaling. Si l'avantage procuré par la flexibilité de fixer deux prix différents est contrebalancé par le coût du signaling avec deux prix différents, alors il est optimal pour la firme de fixer un prix uniforme sur le marché. Finalement, le Chapitre 4 est écrit en collaboration avec Sidartha Gordon. Dans ce chapitre, nous étudions une classe de jeux où les joueurs sont contraints dans le nombre de sources d'information qu'ils peuvent choisir pour apprendre sur un paramètre du jeu, mais où ils ont une certaine liberté quant au degré de dépendance de leurs signaux, avant de prendre une action. En introduisant un nouvel ordre de dépendance entre signaux, nous démontrons qu'un joueur préfère de l'information qui est la plus dépendante possible de l'information obtenue par les joueurs pour qui les actions sont soit, compléments stratégiques et isotoniques, soit substituts stratégiques et anti-toniques, avec la sienne. De même, un joueur préfère de l'information qui est la moins dépendante possible de l'information obtenue par les joueurs pour qui les actions sont soit, substituts stratégiques et isotoniques, soit compléments stratégiques et anti-toniques, avec la sienne. Nous établissons également des conditions suffisantes pour qu'une structure d'information donnée, information publique ou privée par exemple, soit possible à l'équilibre.
Resumo:
Les moteurs de recherche font partie de notre vie quotidienne. Actuellement, plus d’un tiers de la population mondiale utilise l’Internet. Les moteurs de recherche leur permettent de trouver rapidement les informations ou les produits qu'ils veulent. La recherche d'information (IR) est le fondement de moteurs de recherche modernes. Les approches traditionnelles de recherche d'information supposent que les termes d'indexation sont indépendants. Pourtant, les termes qui apparaissent dans le même contexte sont souvent dépendants. L’absence de la prise en compte de ces dépendances est une des causes de l’introduction de bruit dans le résultat (résultat non pertinents). Certaines études ont proposé d’intégrer certains types de dépendance, tels que la proximité, la cooccurrence, la contiguïté et de la dépendance grammaticale. Dans la plupart des cas, les modèles de dépendance sont construits séparément et ensuite combinés avec le modèle traditionnel de mots avec une importance constante. Par conséquent, ils ne peuvent pas capturer correctement la dépendance variable et la force de dépendance. Par exemple, la dépendance entre les mots adjacents "Black Friday" est plus importante que celle entre les mots "road constructions". Dans cette thèse, nous étudions différentes approches pour capturer les relations des termes et de leurs forces de dépendance. Nous avons proposé des méthodes suivantes: ─ Nous réexaminons l'approche de combinaison en utilisant différentes unités d'indexation pour la RI monolingue en chinois et la RI translinguistique entre anglais et chinois. En plus d’utiliser des mots, nous étudions la possibilité d'utiliser bi-gramme et uni-gramme comme unité de traduction pour le chinois. Plusieurs modèles de traduction sont construits pour traduire des mots anglais en uni-grammes, bi-grammes et mots chinois avec un corpus parallèle. Une requête en anglais est ensuite traduite de plusieurs façons, et un score classement est produit avec chaque traduction. Le score final de classement combine tous ces types de traduction. Nous considérons la dépendance entre les termes en utilisant la théorie d’évidence de Dempster-Shafer. Une occurrence d'un fragment de texte (de plusieurs mots) dans un document est considérée comme représentant l'ensemble de tous les termes constituants. La probabilité est assignée à un tel ensemble de termes plutôt qu’a chaque terme individuel. Au moment d’évaluation de requête, cette probabilité est redistribuée aux termes de la requête si ces derniers sont différents. Cette approche nous permet d'intégrer les relations de dépendance entre les termes. Nous proposons un modèle discriminant pour intégrer les différentes types de dépendance selon leur force et leur utilité pour la RI. Notamment, nous considérons la dépendance de contiguïté et de cooccurrence à de différentes distances, c’est-à-dire les bi-grammes et les paires de termes dans une fenêtre de 2, 4, 8 et 16 mots. Le poids d’un bi-gramme ou d’une paire de termes dépendants est déterminé selon un ensemble des caractères, en utilisant la régression SVM. Toutes les méthodes proposées sont évaluées sur plusieurs collections en anglais et/ou chinois, et les résultats expérimentaux montrent que ces méthodes produisent des améliorations substantielles sur l'état de l'art.
Resumo:
Sharing of information with those in need of it has always been an idealistic goal of networked environments. With the proliferation of computer networks, information is so widely distributed among systems, that it is imperative to have well-organized schemes for retrieval and also discovery. This thesis attempts to investigate the problems associated with such schemes and suggests a software architecture, which is aimed towards achieving a meaningful discovery. Usage of information elements as a modelling base for efficient information discovery in distributed systems is demonstrated with the aid of a novel conceptual entity called infotron.The investigations are focused on distributed systems and their associated problems. The study was directed towards identifying suitable software architecture and incorporating the same in an environment where information growth is phenomenal and a proper mechanism for carrying out information discovery becomes feasible. An empirical study undertaken with the aid of an election database of constituencies distributed geographically, provided the insights required. This is manifested in the Election Counting and Reporting Software (ECRS) System. ECRS system is a software system, which is essentially distributed in nature designed to prepare reports to district administrators about the election counting process and to generate other miscellaneous statutory reports.Most of the distributed systems of the nature of ECRS normally will possess a "fragile architecture" which would make them amenable to collapse, with the occurrence of minor faults. This is resolved with the help of the penta-tier architecture proposed, that contained five different technologies at different tiers of the architecture.The results of experiment conducted and its analysis show that such an architecture would help to maintain different components of the software intact in an impermeable manner from any internal or external faults. The architecture thus evolved needed a mechanism to support information processing and discovery. This necessitated the introduction of the noveI concept of infotrons. Further, when a computing machine has to perform any meaningful extraction of information, it is guided by what is termed an infotron dictionary.The other empirical study was to find out which of the two prominent markup languages namely HTML and XML, is best suited for the incorporation of infotrons. A comparative study of 200 documents in HTML and XML was undertaken. The result was in favor ofXML.The concept of infotron and that of infotron dictionary, which were developed, was applied to implement an Information Discovery System (IDS). IDS is essentially, a system, that starts with the infotron(s) supplied as clue(s), and results in brewing the information required to satisfy the need of the information discoverer by utilizing the documents available at its disposal (as information space). The various components of the system and their interaction follows the penta-tier architectural model and therefore can be considered fault-tolerant. IDS is generic in nature and therefore the characteristics and the specifications were drawn up accordingly. Many subsystems interacted with multiple infotron dictionaries that were maintained in the system.In order to demonstrate the working of the IDS and to discover the information without modification of a typical Library Information System (LIS), an Information Discovery in Library Information System (lDLIS) application was developed. IDLIS is essentially a wrapper for the LIS, which maintains all the databases of the library. The purpose was to demonstrate that the functionality of a legacy system could be enhanced with the augmentation of IDS leading to information discovery service. IDLIS demonstrates IDS in action. IDLIS proves that any legacy system could be augmented with IDS effectively to provide the additional functionality of information discovery service.Possible applications of IDS and scope for further research in the field are covered.
Resumo:
The co-operative credit structure in a state set up consists of 3 tiers — Primary Societies at the base, District Co-operative Banks at the middle and State Cooperative Bank at the top. But, some societies at the primary level are governed by, in addition to Co-operative Societies Act, the Banking Regulation Act. Thus they are under dual control. In addition, they are working under the direct purview of Reserve Bank of India. The scope of this study is restricted to such Primary Societies, District Co-operative Banks and State Co-operative Bank. For the evaluation of the working of Co-operative Banks, the board of directors and staff were interviewed with the help of pre-constructed and pre-tested interview schedules. However, the share holders and customers were not interviewed mainly because almost all respondents were reluctant to provide copies of an exhaustive list of share holders and non-share holder customers, for the purpose of maintaining secrecy. This being an individual work, it was found physically and financially very difficult to extend the study so as to cover the share holders and non-share holder customers. Limitations of time were also responsible for restricting this study. The period of study was restricted to 1980-'81 to 1983-'84 as the data relating to earlier periods were firstly not available from all banks and secondly the prior data was considered out of date for the purpose of the study.
Resumo:
In today's complicated computing environment, managing data has become the primary concern of all industries. Information security is the greatest challenge and it has become essential to secure the enterprise system resources like the databases and the operating systems from the attacks of the unknown outsiders. Our approach plays a major role in detecting and managing vulnerabilities in complex computing systems. It allows enterprises to assess two primary tiers through a single interface as a vulnerability scanner tool which provides a secure system which is also compatible with the security compliance of the industry. It provides an overall view of the vulnerabilities in the database, by automatically scanning them with minimum overhead. It gives a detailed view of the risks involved and their corresponding ratings. Based on these priorities, an appropriate mitigation process can be implemented to ensure a secured system. The results show that our approach could effectively optimize the time and cost involved when compared to the existing systems
Resumo:
Die Automobilindustrie reagiert mit Modularisierungsstrategien auf die zunehmende Produktkomplexität, getrieben durch die wachsenden Individualisierungsanforde-rungen auf der Kundenseite und der Modellpolitik mit neuen Fahrzeuganläufen. Die Hersteller verlagern die Materialbereitstellungskomplexität durch Outsourcing an die nächste Zulieferebene, den First Tier Suppliern, die seit Beginn der 90er Jahre zunehmend in Zulieferparks in unmittelbarer Werknähe integriert werden. Typische Merkmale eines klassischen Zulieferparks sind: Bereitstellung einer Halleninfrastruktur mit Infrastrukturdienstleistungen, Anlieferung der Teileumfänge im JIS-Verfahren (Just-in-Sequence = reihenfolgegenaue Synchronisation), lokale Wertschöpfung (Vormontagen, Sequenzierung) des Zulieferers, Vertragsbindung der First Tier Zulieferer für die Dauer eines Produktlebenszyklus und Einbindung eines Logistikdienstleisters. Teilweise werden zur Finanzierung Förderprojekte des öffent-lichen Sektors initiiert. Bisher fehlte eine wissenschaftliche Bearbeitung dieses Themas "Zulieferpark". In der Arbeit werden die in Europa entstandenen Zulieferparks näher untersucht, um Vor- und Nachteile dieses Logistikkonzeptes zu dokumentieren und Entwicklungs-trends aufzuzeigen. Abgeleitet aus diesen Erkenntnissen werden Optimierungs-ansätze aufgezeigt und konkrete Entwicklungspfade zur Verbesserung der Chancen-Risikoposition der Hauptakteure Automobilhersteller, Zulieferer und Logistikdienst-leister beschrieben. Die Arbeit gliedert sich in vier Haupteile, einer differenzierten Beschreibung der Ausgangssituation und den Entwicklungstrends in der Automobilindustrie, dem Vorgehensmodell, der Dokumentation der Analyseergebnisse und der Bewertung von Zulieferparkmodellen. Im Rahmen der Ergebnisdokumentation des Analyseteils werden vier Zulieferparkmodelle in detaillierten Fallstudien anschaulich dargestellt. Zur Erarbeitung der Analyseergebnisse wurde eine Befragung der Hauptakteure mittels strukturierten Fragebögen durchgeführt. Zur Erhebung von Branchentrends und zur relativen Bewertung der Parkmodelle wurden zusätzlich Experten befragt. Zur Segmentierung der Zulieferparklandschaft wurde die Methode der Netzwerk-analyse eingesetzt. Die relative Bewertung der Nutzenposition basiert auf der Nutzwertanalyse. Als Ergebnisse der Arbeit liegen vor: · Umfassende Analyse der Zulieferparklandschaft in Europa, · Segmentierung der Parks in Zulieferparkmodelle, Optimierungsansätze zur Verbesserung einer Win-Win-Situation der beteiligten Hauptakteure, · Relative Nutzenbewertung der Zulieferparkmodelle, · Entwicklungspfade für klassische Zulieferparks.
Resumo:
Traditionally, we've focussed on the question of how to make a system easy to code the first time, or perhaps on how to ease the system's continued evolution. But if we look at life cycle costs, then we must conclude that the important question is how to make a system easy to operate. To do this we need to make it easy for the operators to see what's going on and to then manipulate the system so that it does what it is supposed to. This is a radically different criterion for success. What makes a computer system visible and controllable? This is a difficult question, but it's clear that today's modern operating systems with nearly 50 million source lines of code are neither. Strikingly, the MIT Lisp Machine and its commercial successors provided almost the same functionality as today's mainstream sytsems, but with only 1 Million lines of code. This paper is a retrospective examination of the features of the Lisp Machine hardware and software system. Our key claim is that by building the Object Abstraction into the lowest tiers of the system, great synergy and clarity were obtained. It is our hope that this is a lesson that can impact tomorrow's designs. We also speculate on how the spirit of the Lisp Machine could be extended to include a comprehensive access control model and how new layers of abstraction could further enrich this model.