871 resultados para Codium fragile
Resumo:
Cette recherche visait à développer, mettre à l’essai et évaluer les effets d’une intervention de pratique réflexive (IPR) avec des infirmières œuvrant auprès d’aînés hospitalisés. Fondée sur la théorie du Human Caring de Watson (1979) et sur le modèle de réflexion structurée de Johns (2006), l’étude a été réalisée au moyen d’un devis mixte. Le développement et la mise à l’essai de l’IPR ont été réalisés au moyen d’une approche qualitative de type recherche-action. L’évaluation de l’intervention a été effectuée à l’aide d’une approche qualitative et d’une approche quantitative de type quasi-expérimental avec groupe de comparaison (GC). Au terme de l’IPR, les infirmières étaient invitées à décrire les retombées perçues de cette intervention, soit les habiletés et les savoirs infirmiers développés suite à une pratique réflexive (PR), ainsi que leur perception de la PR comme moyen d’amélioration de leur pratique professionnelle. De plus, comparativement à un GC, trois hypothèses étaient formulées : les infirmières du groupe expérimental (GE) ayant bénéficié d’une IPR amélioreraient significativement leurs attitudes et leurs connaissances à l’égard des aînés; identifieraient davantage d’interventions infirmières adaptées à la clientèle âgée hospitalisée, et obtiendraient un niveau de réflexion supérieur. L’étude a été effectuée auprès de 43 infirmières (GE = 22; GC = 21) travaillant dans un centre hospitalier universitaire. L’IPR s’est déroulée sur une période de 22 semaines. Elle comprenait huit ateliers thématiques d’une durée de 75 minutes chacun, dispensés aux trois semaines, combinés à des lectures et à des exercices individuels. L’IPR portait sur trois thèmes centraux du séjour hospitalier des aînés : la médication, la mobilisation et la planification du congé. Des données qualitatives et quantitatives ont été colligées par le biais de questionnaires ouverts (vignettes, écrit réflexif) et standardisés (Kogan’s Attitudes Toward Old People Scale, Palmore’s Facts on Aging Quiz) pré et post intervention pour les deux groupes. Les infirmières du GE ont également complété un questionnaire sur l’expérience de la PR et certaines d’entre elles ont participé à des groupes de discussion focalisée. Une analyse de contenu thématique, selon l’approche de Miles et Huberman (2003), a été réalisée sur les données qualitatives, alors que des tests de classement de Wilcoxon ont été effectués sur les données quantitatives. Les résultats soulignent que les infirmières ont développé différentes habiletés nécessaires à une PR telles que l’introspection, l’ouverture aux autres et l’analyse critique. Les participantes reconnaissent que l’IPR leur a notamment permis de développer des savoirs empirique, éthique, esthétique, personnel et émancipatoire. De plus, elles perçoivent que l’IPR est un moyen d’amélioration de la pratique professionnelle puisqu’elle peut, entre autres, contrer la routinisation des soins. Par ailleurs, comparativement au GC, les infirmières du GE ont amélioré significativement leurs attitudes et leurs connaissances à l’égard des aînés. Cependant, aucune différence significative entre le GE et le GC n’a été révélée suite à l’IPR quant au nombre d’interventions adaptées aux situations vécues par les aînés hospitalisés et au niveau de réflexion atteint. Les hypothèses de recherche ont ainsi été partiellement soutenues. Cette étude démontre le potentiel d’une IPR comme approche de développement professionnel novateur qui valorise l’expérience des infirmières, tout en leur permettant de modifier positivement leurs attitudes à l’égard des aînés et d’ajuster leurs connaissances aux besoins de cette clientèle hautement fragile et vulnérable.
Resumo:
Depuis des années, le Kenya avait donné l’impression d’être un pays relativement stable dans la région d’Afrique sub-saharienne, régulièrement secouée par les conflits, et un « centre » autour duquel la communauté internationale coordonne ses missions vers certains pays d’Afrique comme ceux faisant partie de la Région des Grandes Lacs (Burundi, Rwanda, Ouganda, République démocratique du Congo, Kenya et Tanzanie) et ceux de la Corne de l’Afrique (Kenya, Somalie, Éthiopie, Djibouti et Ouganda). Toutefois, les élections présidentielles très contestées en 2007 et les conflits qui se sont enchaînés ont entrainé de nombreuses préoccupations en ce qui concerne la stabilité du Kenya à l’ère de l’insécurité globale. Alors que le rétablissement de la paix continue, la coexistence entre groupes est toujours délicate car le Kenya compte au moins quarante-deux ethnies qui sont toutes distinctes les unes par rapport aux autres. Par ailleurs, l’ouverture d’une enquête judiciaire, par la Cour Pénale Internationale (CPI), contre quatre des six personnes présumées être les principaux auteurs des violences postélectorales de 2007/08, s’ajoute aux problèmes liés à la coexistence pacifique entre les différents groupes avant les prochaines élections. Cette thèse examine les politiques relatives à l’accommodation des différents groupes à travers les radios vernaculaires et comment ces politiques ont influencé les relations entre les groupes lors des conflits de 2007/08 au Kenya. Partant du constat qu’un conflit est un processus communicatif, elle intègre le concept d’encadrement médiatique à la théorie de Protracted Social Conflict (PSC) définie par Azar (1990) pour tracer non seulement les changements dans les discours d’encadrement de ces conflits, mais aussi pour illustrer les mutations des attitudes à l’égard des relations entre groupes survenues avant, durant et après ces conflits. Cette étude emploie principalement les méthodes qualitatives pour rassembler les données issues des trois régions au Kenya qui sont ethniquement et linguistiquement divergentes: Nyeri (la majorité Kikuyu), Kisumu (la majorité Luo) et Eldoret (la majorité Kalenjin). L’argument central de cette thèse est que l’encadrement des relations entre groupes, notamment lors des conflits, est soit différencié soit concerté dépendamment du stade auquel le conflit se manifeste. Alors que dans l’encadrement différencié, les discours médiatiques sont articulés de façon à ce que ceux-ci soient susceptibles d’entrainer une polarisation entre groupes, l’encadrement concerté décrit les discours médiatiques négociés de manière à ce que ceux-ci reflètent les valeurs partagées au travers des différents groupes, et donc sont susceptibles d’engendrer une coopération entre groupes. J’argumente que les changements dans le discours des radios vernaculaires prennent effet lorsque de nouveaux éléments sont ajoutés aux discours caractérisant un conflit déjà existant, et les « nouveaux significations » que ces éléments apportent à la compréhension du conflit en question. J’argumente également que le changement du l’encadrement différentiée à l’encadrement concerté (et vice-versa) dépende du degré de résonance de ces discours avec la population cible. De façon générale, cette étude suggère que le langage de diffusion et la proximité culturelle induisent l’encadrement entre groupes à travers les radios vernaculaires au Kenya. La force de cette thèse se trouve donc dans les perspectives analytiques qu’elle propose pour localiser les discours changeants lors des conflits, plus particulièrement dans les états multiethniques où les politiques d’accommodation entre les différents groupes demeurent toujours fragiles et conditionnelles.
Resumo:
L'objectif de ce projet de recherche était d'approfondir notre compréhension des liens entre communauté et cinéma, rendus possibles par et pour le film documentaire, à travers l'analyse des interactions entre le cinéaste, la personne filmée et le spectateur. L'expérience cinématographique sera analysée d'une part en tant que pratique sociale à travers la prise en considération du contexte de production des films. D'autre part, le film sera aussi considéré comme expérience imaginaire de sociabilité. Les trois films de notre corpus s'intéressent à des expériences communautaires atypiques et mettent en scène des relations fragiles et précaires avec des personnes souffrant de troubles sociaux majeurs, c'est-à-dire des psychotiques, des déficients intellectuels profonds ou des autistes. C'est à partir de l'expérience de l'apparente insociabilité de ces individus que nous réfléchirons au lien d'accompagnement ainsi qu'au concept de care qui seront envisagés, aussi, comme pouvant traduire la relation particulière qui a lieu entre le spectateur et le film. En effet, le cinéma permet l'élaboration d'une expérience relationnelle construite dans les œuvres médiatiques. Le dispositif filmique donne l'occasion au spectateur d'expérimenter des postures morales et affectives nouvelles. Nous tiendrons compte, au cours de ce mémoire, de la façon dont les choix esthétiques du cinéaste peuvent éduquer et faire évoluer la sensibilité du spectateur. Nous essaierons aussi de souligner les différents jeux de pouvoir et d'influence entre les trois instances que sont le cinéaste, la personne filmée et le spectateur. Après avoir décrit le cadre et les enjeux théoriques du projet, le premier chapitre concernera le film La Moindre des choses (1996) dans lequel Nicolas Philibert filme, jour après jour, les pensionnaires de la clinique psychiatrique de la Borde. Ce film nous a servi de prétexte pour penser ou repenser la place du spectateur comme étant inclus dans la relation entre le cinéaste et la personne filmée et cela à partir de cette phrase d'un des protagonistes du film : « On est entre nous, mais vous aussi, vous êtes entre nous. » Le deuxième chapitre s'intéressera au film Ce Gamin là (1985) de Renaud Victor qui cherche à faire voir au spectateur ce que le projet de Fernand Deligny de vivre dans les Cévennes en compagnie d'enfants autistes a d'original et de particulier. Nous pensons que l'enfant autiste nous amène à dépasser nos expériences de sociabilités habituelles. Le lien d'accompagnement d'enfants autistes, puisque toujours fragile et précaire, révèle quelque chose sur nos façons d'avoir du commun. L'étude des médias et de la médiation est pertinente parce qu'elle nous permet de multiplier et de diversifier les modes de communications. Dans Ce Gamin-là, bien que les images permettent au cinéaste de rendre compte de l'événement d'un contact, l'accent sera mis sur l'analyse du commentaire de Deligny, puisqu'il accompagne le spectateur dans l'appréhension d'une réalité qui lui est étrangère. Ce film nous a aussi appris que l’étude des techniques utilisées nous renseigne sur les différentes façons de dire ou de montrer un lien communautaire, affectif ou social particulier. Le Moindre Geste (1971) qui permet à Yves Guignard, déficient intellectuel sévère, de devenir le héros d'un film, se distingue des deux autres films de par la distinction radicale entre les deux étapes du tournage et du montage. Le troisième chapitre se concentrera, d'une part, sur l'analyse de la relation qui se développe entre Yves et Josée Manenti à la caméra. Ensuite, nous verrons de quelle façon le jeu du montage de Jean-Pierre Daniel laisse une grande liberté à Yves, mais aussi au spectateur en multipliant les possibilités d'interprétations.
Resumo:
Les débats sur le fédéralisme en tant que nouvel enjeu de la politique animent désormais les diverses scènes du monde. Qu’on pense aux débats sur le traité qui a présidé à la formation de l’Union européenne et au rejet par la France et les Pays-Bas du projet de constitution pour l’Europe, projets qui ont donné prise à de ferventes oppositions. Qu’on pense encore à l’Irak et à l’établissement de sa légitimité comme État, légitimité fragile, fondée sur un fédéralisme de réconciliation qui n’a pas encore donné les preuves souhaitées de sa capacité à unir et à apaiser des populations profondément divisées. Le fédéralisme n’est plus seulement un moyen car il est souvent présenté comme une fin, à travers une idéologie de l’harmonisation, comme une nécessité de la nouvelle coopération entre les États, comme une forme idéale de concertation et de bonne entente apte à résoudre les conflits, les différends et les inégalités entre les États, les partenaires ou les communautés. Ces représentations du fédéralisme sont régies par les pressions de la mondialisation ou par l’extension du libéralisme politique au-delà de frontières qui lui étaient auparavant interdites.
Resumo:
Le sujet sur lequel porte la présente étude est inspiré de la problématique à la base du développement du commerce électronique : la confiance. En effet, l’accroissement exponentiel du nombre d’internautes et des sites Web commerciaux pose un sérieux problème à ce niveau. Ces sites présentent au public une information et des services divers, mais peu vérifiables. Ainsi, le principal obstacle au développement du commerce électronique avec les particuliers est le manque de confiance qu’inspirent les lieux visités. En effet, comment savoir si l’entreprise existe, quelles sont ses politiques concernant la sécurité ou la gestion des renseignements personnels, etc. La vérification et la certification des sites apparaissent comme une solution de plus en plus attrayante et utilisée pour ajouter cet élément de confiance. Déjà, de nombreux sceaux de qualité sont apparus sur les sites commerciaux. Certains sceaux portent sur la confidentialité tandis que d’autres ciblent la protection des consommateurs. La certification peut provenir de la compagnie même, d’un tiers certificateur ou d’un organisme public. Ces éléments constituent des balises et repères importants pour le consommateur sur Internet. Toutefois, les incidences légales sont multiples et certains concepts demeurent flous. Pour apporter une réponse à ces questions, nous définirons le concept de certification des sites Web et ses enjeux dont plus particulièrement la problématique de la confiance des consommateurs. Les différents objets de la certification seront analysés, tant au niveau de l’entité, du contenu du site que de la dimension transactionnelle de celui-ci. Les processus possibles et les impacts de la certification occupent la seconde partie du travail. Il s’agit d’examiner successivement les étapes menant à la certification, soit l’établissement des standards, de l’évaluation de l’entité et de la certification elle-même. L’analyse des impacts de la certification, tant sur le plan de la portée, de la responsabilité légale et des effets sur la concurrence de la certification constitue quant à eux, l’aboutissement de la recherche, soit de savoir quel est l’impact juridique d’un tel mécanisme. Le but de la recherche est de permettre au lecteur de mieux cerner ce phénomène de l’utilisation de la certification sur Internet avec ses avantages et ses limites. Certes, cet outil peut s’avérer très utile pour bâtir la confiance des consommateurs, promouvoir l’essor du commerce électronique et constituer une forme d’autoréglementation. Toutefois, mal utilisé ou mal encadré, il peut engendrer l’effet inverse et détruire cette confiance si fragile à construire dans un environnement dématérialisé.
Resumo:
La détermination de la loi applicable et de la juridiction compétente en ce qui concerne les contrats électroniques internationaux constitue l’un des défis les plus importants dans l’établissement d’un cadre juridique adapté au commerce électronique. La dématérialisation des échanges et le caractère international des réseaux rendent difficile l’application des règles de droit international privé conçues pour répondre aux besoins des contrats « papier ». Dans le cas du contrat électronique de consommation, la création d’instruments juridiques adaptés devient essentielle afin de renforcer le rapport de confiance devant exister entre commerçant et cyberconsommateur et d’ainsi permettre au commerce électronique de continuer son développement. Le phénomène « Internet » lié au commerce électronique provoque, depuis un certain temps, un débat au sujet des besoins d’adaptation et de renouvellement des différentes règles étatiques et internationales portant sur les conflits de lois et de juridictions. C’est dans cette optique que cet article fait l’analyse du cadre législatif général permettant la détermination de la loi applicable et de la juridiction compétente en matière de contrat électronique international. L’article aborde également l’étude des différentes règles juridictionnelles encadrant le contrat électronique de consommation et les possibles difficultés d’application de celles-ci. Est finalement analysée la validité du consentement d’un consommateur eu égard aux clauses sur la loi applicable et le tribunal compétent imposées unilatéralement par les cybermarchands.
Resumo:
L’objectif principal du présent mémoire réside dans l’exploration des liens concomitants existant entre les trois dimensions de l’épuisement professionnel telles que définies par Maslach (1981) et la consommation de substances psychoactives, plus précisément au niveau de la consommation épisodique excessive et hebdomadaire à risque d’alcool et de la consommation de médicaments psychotropes. À partir d’un échantillon composé de 1809 travailleurs provenant de 83 milieux de travail québécois, des profils-types correspondant à des formes particulières de comorbidité de santé mentale au travail sont identifiés grâce à la méthode d’analyse en classes latentes. Ainsi quatre profils-types sont dégagés: un premier regroupant les individus dits «sains», dont les scores aux différentes dimensions de l’épuisement professionnel sont faibles et dont la consommation de substances psychoactives est modérée; deux autres correspondant à des formes intermédiaires de risques; et un quatrième rassemblant des travailleurs dits «fragiles» dont les scores pour chacune des dimensions de l’épuisement professionnel se situent dans le quintile le plus élevé et dont les probabilités de consommation de substances psychoactives sont grandes. De plus, cette recherche s’est penchée sur l’identification de facteurs de risque et de protection associés à chacun des profils-types. À cet effet, les résultats des analyses corroborent la plupart des associations retrouvées au sein de la littérature quant aux facteurs du travail (composantes des modèles du stress professionnel de Karasek et Theorell (1990) ainsi que de Siegrist (1990)), hors travail (statut matrimonial, obligations parentales, revenu du ménage) et certaines caractéristiques individuelles (âge et genre). De faibles récompenses et un fort degré de surinvestissement de la part de l’individu se révèlent être des facteurs de risque particulièrement significatifs pour les formes intermédiaires et à risque de comorbidité de la santé mentale au travail. Dans une moindre mesure, une faible utilisation des compétences, des demandes psychologiques élevées, un soutien social inadéquat et le jeune âge expliquent une part de la variation observée entre les différents profils-types. Enfin, les résultats soutiennent une conceptualisation tridimensionnelle de l’épuisement professionnel.
Resumo:
Les immunités législatives pour bonne foi sont une composante importante des règles spécifiques s’appliquant à la responsabilité civile des administrations publiques. Apparues dans les années 1940 au Québec, elles visent à insuffler à la responsabilité civile les considérations propres à l’action étatique (difficulté des tâches, pouvoir discrétionnaire, liberté d’action, etc.). Or, la notion principale de ces immunités, la bonne foi, est d’une nature fragile. Tiraillée entre une vision subjective et objective, elle souffre de nombreuses lacunes. Originalement fondée sur l’évaluation de l’état d’esprit d’une personne, la bonne foi reproduit dorénavant le concept de faute lourde présent en responsabilité civile. Il en résulte un système qui crée de la confusion sur l’état mental nécessaire pour entrainer la responsabilité d’une administration publique. Au surplus, le régime de la bonne foi est variable et change selon les fonctions exercées par les administrations publiques. Ces attributs mettent en exergue le peu d’utilité de cette notion : la bonne foi dédouble plusieurs éléments déjà présents en responsabilité civile québécoise et partant de là, affaiblit sa place comme règle particulière applicable aux administrations publiques. Bref, par son caractère adaptable, la bonne foi est un calque de la responsabilité civile québécoise et son faible apport embrouille le régime de cette dernière.
Resumo:
Poor bioavailability and poor pharmacokinetic characteristics are some of the leading causes of drug development failure. Therefore, poorly-soluble drugs, fragile proteins or nucleic acid products may benefit from their encapsulation in nanosized vehicles, providing enhanced solubilisation, protection against degradation, and increased access to pathological compartments. A key element for the success of drug-loaded nanocarriers (NC) is their ability to either cross biological barriers themselves or allow loaded drugs to traverse them to achieve optimal pharmacological action at pathological sites. Depending on the mode of administration, NC may have to cross different physiological barriers in their journey towards their target. In this review, the crossing of biological barriers by passive targeting strategies will be presented for intravenous delivery (vascular endothelial lining, particularly for tumour vasculature and blood-brain barrier targeting), oral administration (gastrointestinal lining) and upper airway administration (pulmonary epithelium). For each specific barrier, background information will be provided on the structure and biology of the tissues involved as well as available pathways for nano-objects or loaded drugs (diffusion and convection through fenestration, transcytosis, tight junction crossing, etc.). The determinants of passive targeting − size, shape, surface chemistry, surface patterning of nanovectors − will be discussed in light of current results. Perspectives on each mode of administration will be presented. The focus will be on polymeric nanoparticles and dendrimers although advances in liposome technology will be also reported as they represent the largest body in the drug delivery literature.
Resumo:
« Pour respecter les droits d'auteur, la version électronique de ce mémoire a été dépouillée de certains documents visuels et audio-visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal ».
Resumo:
Éditorial du 11 décembre 2015
Resumo:
La déficience intellectuelle affecte de 1 à 3% de la population mondiale, ce qui en fait le trouble cognitif le plus commun de l’enfance. Notre groupe à découvert que des mutations dans le gène SYNGAP1 sont une cause fréquente de déficience intellectuelle non-syndromique, qui compte pour 1-3% de l’ensemble des cas. À titre d’exemple, le syndrome du X fragile, qui est la cause monogénique la plus fréquente de déficience intellectuelle, compte pour environ 2% des cas. Plusieurs patients affectés au niveau de SYNGAP1 présentent également des symptômes de l’autisme et d’une forme d’épilepsie. Notre groupe a également montré que SYNGAP1 cause la déficience intellectuelle par un mécanisme d’haploinsuffisance. SYNGAP1 code pour une protéine exprimée exclusivement dans le cerveau qui interagit avec la sous-unité GluN2B des récepteurs glutamatergique de type NMDA (NMDAR). SYNGAP1 possède une activité activatrice de Ras-GTPase qui régule négativement Ras au niveau des synapses excitatrices. Les souris hétérozygotes pour Syngap1 (souris Syngap1+/-) présentent des anomalies de comportement et des déficits cognitifs, ce qui en fait un bon modèle d’étude. Plusieurs études rapportent que l’haploinsuffisance de Syngap1 affecte le développement cérébral en perturbant l’activité et la plasticité des neurones excitateurs. Le déséquilibre excitation/inhibition est une théorie émergente de l’origine de la déficience intellectuelle et de l’autisme. Cependant, plusieurs groupes y compris le nôtre ont rapporté que Syngap1 est également exprimé dans au moins une sous-population d’interneurones GABAergiques. Notre hypothèse était donc que l’haploinsuffisance de Syngap1 dans les interneurones contribuerait en partie aux déficits cognitifs et au déséquilibre d’excitation/inhibition observés chez les souris Syngap1+/-. Pour tester cette hypothèse, nous avons généré un modèle de souris transgéniques dont l’expression de Syngap1 a été diminuée uniquement dans les interneurones dérivés des éminences ganglionnaires médianes qui expriment le facteur de transcription Nkx2.1 (souris Tg(Nkx2,1-Cre);Syngap1). Nous avons observé une diminution des courants postsynaptiques inhibiteurs miniatures (mIPSCs) au niveau des cellules pyramidales des couches 2/3 du cortex somatosensoriel primaire (S1) et dans le CA1 de l’hippocampe des souris Tg(Nkx2,1-Cre);Syngap1. Ces résultats supportent donc l’hypothèse selon laquelle la perte de Syngap1 dans les interneurones contribue au déséquilibre d’excitation/inhibition. De manière intéressante, nous avons également observé que les courants postsynaptiques excitateurs miniatures (mEPSCs) étaient augmentés dans le cortex S1, mais diminués dans le CA1 de l’hippocampe. Par la suite, nous avons testé si les mécanismes de plasticité synaptique qui sous-tendraient l’apprentissage étaient affectés par l’haploinsuffisance de Syngap1 dans les interneurones. Nous avons pu montrer que la potentialisation à long terme (LTP) NMDAR-dépendante était diminuée chez les souris Tg(Nkx2,1-Cre);Syngap1, sans que la dépression à long terme (LTD) NMDAR-dépendante soit affectée. Nous avons également montré que l’application d’un bloqueur des récepteurs GABAA renversait en partie le déficit de LTP rapporté chez les souris Syngap1+/-, suggérant qu’un déficit de désinhibition serait présent chez ces souris. L’ensemble de ces résultats supporte un rôle de Syngap1 dans les interneurones qui contribue aux déficits observés chez les souris affectées par l’haploinsuffisance de Syngap1.
Resumo:
The rapid developments in fields such as fibre optic communication engineering and integrated optical electronics have expanded the interest and have increased the expectations about guided wave optics, in which optical waveguides and optical fibres play a central role. The technology of guided wave photonics now plays a role in generating information (guided-wave sensors) and processing information (spectral analysis, analog-to-digital conversion and other optical communication schemes) in addition to its original application of transmitting information (fibre optic communication). Passive and active polymer devices have generated much research interest recently because of the versatility of the fabrication techniques and the potential applications in two important areas – short distant communication network and special functionality optical devices such as amplifiers, switches and sensors. Polymer optical waveguides and fibres are often designed to have large cores with 10-1000 micrometer diameter to facilitate easy connection and splicing. Large diameter polymer optical fibres being less fragile and vastly easier to work with than glass fibres, are attractive in sensing applications. Sensors using commercial plastic optical fibres are based on ideas already used in silica glass sensors, but exploiting the flexible and cost effective nature of the plastic optical fibre for harsh environments and throw-away sensors. In the field of Photonics, considerable attention is centering on the use of polymer waveguides and fibres, as they have a great potential to create all-optical devices. By attaching organic dyes to the polymer system we can incorporate a variety of optical functions. Organic dye doped polymer waveguides and fibres are potential candidates for solid state gain media. High power and high gain optical amplification in organic dye-doped polymer waveguide amplifier is possible due to extremely large emission cross sections of dyes. Also, an extensive choice of organic dye dopants is possible resulting in amplification covering a wide range in the visible region.
Resumo:
We are in the cutting edge of a new era of development without leaving any promises to next generation. But the scale and size of the problem are only partially blamed. The juggernaut of Globalisation has trampled upon whatever little hope we might have had making a quick transition to a less energy – intensive world. “Environment friendliness begins at home”. Our quest for productivity and profitability should progress simultaneous with our cooperative responsibility of leaving behind a clean and green earth for the generation to come. Climate change is the most pressing global environmental challenge being faced by humanity, with the quest for better productivity for our fragile ecosystem. It is too late to rely solely on reduction in Green house gas emissions to mitigate climate change although this is undoubtedly crucial. Coastal belts are more prone to these devastating impacts and its protection is an intensive filed of research. The present study describes how the colourful Carotenoids and Chlorophylls can be used in rapid hand on tool in conjunction with molecular biology to open sources and it also explores the fate of organic matter in the aquatic system and underlying sediments.
Resumo:
Sharing of information with those in need of it has always been an idealistic goal of networked environments. With the proliferation of computer networks, information is so widely distributed among systems, that it is imperative to have well-organized schemes for retrieval and also discovery. This thesis attempts to investigate the problems associated with such schemes and suggests a software architecture, which is aimed towards achieving a meaningful discovery. Usage of information elements as a modelling base for efficient information discovery in distributed systems is demonstrated with the aid of a novel conceptual entity called infotron.The investigations are focused on distributed systems and their associated problems. The study was directed towards identifying suitable software architecture and incorporating the same in an environment where information growth is phenomenal and a proper mechanism for carrying out information discovery becomes feasible. An empirical study undertaken with the aid of an election database of constituencies distributed geographically, provided the insights required. This is manifested in the Election Counting and Reporting Software (ECRS) System. ECRS system is a software system, which is essentially distributed in nature designed to prepare reports to district administrators about the election counting process and to generate other miscellaneous statutory reports.Most of the distributed systems of the nature of ECRS normally will possess a "fragile architecture" which would make them amenable to collapse, with the occurrence of minor faults. This is resolved with the help of the penta-tier architecture proposed, that contained five different technologies at different tiers of the architecture.The results of experiment conducted and its analysis show that such an architecture would help to maintain different components of the software intact in an impermeable manner from any internal or external faults. The architecture thus evolved needed a mechanism to support information processing and discovery. This necessitated the introduction of the noveI concept of infotrons. Further, when a computing machine has to perform any meaningful extraction of information, it is guided by what is termed an infotron dictionary.The other empirical study was to find out which of the two prominent markup languages namely HTML and XML, is best suited for the incorporation of infotrons. A comparative study of 200 documents in HTML and XML was undertaken. The result was in favor ofXML.The concept of infotron and that of infotron dictionary, which were developed, was applied to implement an Information Discovery System (IDS). IDS is essentially, a system, that starts with the infotron(s) supplied as clue(s), and results in brewing the information required to satisfy the need of the information discoverer by utilizing the documents available at its disposal (as information space). The various components of the system and their interaction follows the penta-tier architectural model and therefore can be considered fault-tolerant. IDS is generic in nature and therefore the characteristics and the specifications were drawn up accordingly. Many subsystems interacted with multiple infotron dictionaries that were maintained in the system.In order to demonstrate the working of the IDS and to discover the information without modification of a typical Library Information System (LIS), an Information Discovery in Library Information System (lDLIS) application was developed. IDLIS is essentially a wrapper for the LIS, which maintains all the databases of the library. The purpose was to demonstrate that the functionality of a legacy system could be enhanced with the augmentation of IDS leading to information discovery service. IDLIS demonstrates IDS in action. IDLIS proves that any legacy system could be augmented with IDS effectively to provide the additional functionality of information discovery service.Possible applications of IDS and scope for further research in the field are covered.