922 resultados para work organization conditions
Resumo:
La perméthrine fait partie de la famille des pyréthrinoïdes qui sont abondamment utilisés en agriculture. Le but de cette étude était d'obtenir des données sur la cinétique des biomarqueurs d'exposition à la perméthrine en condition réelle d'exposition chez les travailleurs agricoles. Douze travailleurs (un applicateur, un superviseur et dix cueilleurs) exposés à la perméthrine dans le cadre de leur emploi ont été recrutés dans une ferme maraichère de la Montérégie (Québec). Ils ont fourni toutes leurs urines sur une période de trois jours suivant le début des travaux dans un champ traité. Les trois principaux métabolites de la perméthrine, l'acide cis-/trans-3-(2,2-dichlorovinyle)-2,2-diméthylecyclopropane carboxylique (cis-/trans-DCCA) et l'acide 3-phénoxybenzoïque (3-PBA) ont été analysés par chromatographie liquide à ultra-haute performance couplée à la spectrométrie de masse à temps de vol. Pour l'applicateur, une augmentation progressive des valeurs d'excrétion a été observée avec un pic unique atteint environ 30 h après le début de l'exposition d'une durée de 3,5 h suivi d'une élimination avec une demi-vie de 8 h. Pour le superviseur et l'un des cueilleurs, les profils d'excrétion de trans-DCCA et de 3-PBA étaient compatibles avec de multiples entrées dans la zone traitée pendant la période d'échantillonnage accompagné d'une élimination rapide entre les épisodes d'exposition.L'applicateur aurait été exposé indirectement par contact main-bouche, alors que les autres travailleurs auraient été exposés par la voie cutanée. Pour une surveillance biologique adéquate, nous recommandons de mesurer deux biomarqueurs de la perméthrine, soit le trans-DCCA et le 3-PBA et de prendre un minimum de trois échantillons urinaires, un avant et deux pendant ou suivant la période d'exposition.
L’intégration de la prise de décision visuo-motrice et d’action motrice dans des conditions ambiguës
Resumo:
La prise de décision est un mécanisme qui fait intervenir les structures neuronales supérieures afin d’effectuer un lien entre la perception du signal et l’action. Plusieurs travaux qui cherchent à comprendre les mécanismes de la prise de décision sont menés à divers ni- veaux allant de l’analyse comportementale cognitive jusqu'à la modélisation computationnelle. Le but de ce projet a été d’évaluer d’un instant à l’autre comment la variabilité du signal observé («bruit»), influence la capacité des sujets humains à détecter la direction du mouvement dans un stimulus visuel. Dans ces travaux, nous avons éliminé l’une des sources potentielles de variabilité, la variabilité d’une image à l’autre, dans le nombre de points qui portaient les trois signaux de mouvements cohérents (gauche, droite, et aléatoire) dans les stimuli de Kinématogramme de points aléatoires (KPA), c’est-à-dire la variabilité d’origine périphérique. Les stimuli KPA de type « V6 » étaient des stimuli KPA standard avec une variabilité instantanée du signal, et par contre les stimuli KPA de type « V8 », étaient modifiés pour éliminer la variabilité stochastique due à la variabilité du nombre de pixels d’un instant à l’autre qui portent le signal cohérent. Si la performance des sujets, qui correspond à leur temps de réaction et au nombre de bonnes réponses, diffère en réponse aux stimuli dont le nombre de points en mouvement cohérent varie (V6) ou ne varie pas (V8), ceci serait une preuve que la variabilité d’origine périphérique modulerait le processus décisionnel. Par contre, si la performance des sujets ne diffère pas entre ces deux types de stimuli, ceci serait une preuve que la source majeure de variabilité de performance est d’origine centrale. Dans nos résultats nous avons constaté que le temps de réaction et le nombre de bonnes réponses sont modulés par la preuve nette du mouvement cohérent. De plus on a pu établir qu’en éliminant la variabilité d’origine périphérique définit ci-dessus, on n’observe pas réellement de modification dans les enregistrements. Ce qui nous à amené à penser qu’il n y a pas de distinction claire entre la distribution des erreurs et les bonnes réponses effectuées pour chacun des essais entre les deux stimuli que nous avons utilisé : V6 et V8. C’est donc après avoir mesuré la « quantité d’énergie » que nous avons proposé que la variabilité observée dans les résultats serait probablement d’origine centrale.
Resumo:
Travail dirigé présenté à la Faculté des Sciences Infirmières en vue de l’obtention du grade de Maître ès Sciences (M. Sc.) en sciences infirmière option administration des sciences infirmières
Resumo:
Rapport de stage présenté à la Faculté des arts et des sciences en vue de l’obtention du grade de Maître ès sciences (M. Sc.) en criminologie
Resumo:
Toute historiographie se construit sous la forme d’un récit, soutenue par une narration qui, autour d’une intrigue, sélectionne et organise les événements en fonction de leur importance relative à des critères prédéterminés. La période des années 1960, qui est habituellement décrite comme celle de la naissance de la littérature québécoise, est on ne peut plus représentative de cette logique narrative qui sous-tend toute démarche historique. Un événement retenu par cette histoire, la Nuit de la poésie du 27 mars 1970, s’est littéralement élevé au rang de mythe dans l’imaginaire littéraire, mais aussi identitaire des Québécois. Que ce soit à travers les triomphes de Claude Gauvreau et de Michèle Lalonde ou la foule de plusieurs milliers de personnes devant le Gesù qui espérait assister à la soirée, cet événement, mis sur pellicule par Jean-Claude Labrecque et Jean-Pierre Masse, a été conçu par plusieurs comme l’apothéose de « l’âge de la parole ». Une observation minutieuse de ce happening soulève cependant de nombreuses questions concernant la construction de ce rôle dans l’histoire littéraire québécoise. En effet, tant l’étude des conditions d’organisation de la soirée que l’analyse de son mode de transmission révèlent des motivations archivistiques qui laissent transparaître l’objectif de la Nuit à « faire événement », à produire des traces qui participeront à l’inscription historique de la poésie québécoise. Considérant que l’œuvre filmique de Labrecque et de Masse constitue le seul véritable document témoignant de cet événement et que celui-ci a fait l’objet d’un montage ne présentant qu’une facette de la soirée, les enjeux de représentation et de mise en récit inhérents au cinéma documentaire poussent à questionner le portrait désiré de la poésie de l’époque que l’on voulait créer à travers le long-métrage. Véritable plateau de tournage, le spectacle du 27 mars 1970 appelle à être analysé dans les termes d’une conscience historique qui pousse les acteurs du milieu littéraire de l’époque à ériger les monuments qui seront à la base du canon et de l’institution littéraires québécois. L’étude, mobilisant les ressources de l’analyse de texte, de la sociologie de la littérature, de la théorie historiographique et de la théorie du cinéma, portera principalement sur le documentaire La Nuit de la poésie 27 mars 1970, considéré comme véritable recueil de textes, mais aussi de façon tout à fait originale sur les archives inédites rejetées du montage final des réalisateurs de l’ONF. Au terme de ce travail, j’approfondirai la réflexion sur le rôle historique d’un événement emblématique de la littérature québécoise en explicitant la construction historique autour de celui-ci. Il s’agira non seulement de relativiser l’événement en tant que tel, mais aussi de réfléchir sur le grand récit espéré par les artistes de l’époque.
Resumo:
Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.
Resumo:
L'adaptation à l'environnement est essentielle à la survie cellulaire et des organismes en général. La capacité d'adaptation aux variations en oxygène repose sur des mécanismes de détection de l'hypoxie et une capacité à répondre en amorçant un programme d'angiogenèse. Bien que la contribution du facteur induit par l'hypoxie (HIF) est bien définie dans l'induction d'une telle réponse, d'autres mécanismes sont susceptibles d'être impliqués. Dans cette optique, les études démontrant l'influence du métabolisme énergétique sur le développement vasculaire sont de plus en plus nombreuses. L'un de ces composés, le succinate, a récemment été démontré comme étant le ligand du GPR91, un récepteur couplé aux protéines G. Parmi les différents rôles attribués à ce récepteur, notre laboratoire s'intéressa aux rôles du GPR91 dans la revascularisation observée suite à des situations d'hypoxie dont ceux affectant la rétine. Il existe cependant d'autres conditions pour lesquelles une revascularisation serait bénéfique notamment suite à un stress hypoxique-ischémique cérébral. Nos travaux ont pour objectifs de mieux comprendre le rôle et le fonctionnement de ce récepteur durant le développement et dans le cadre de pathologies affectant la formation de vaisseaux sanguins. Dans un premier temps, nous avons déterminé le rôle du GPR91 dans la guérison suite à un stress hypoxique-ischémique cérébral chez le nouveau-né. Nous montrons que ce récepteur est exprimé dans le cerveau et en utilisant des souris n'exprimant pas le GPR91, nous démontrons que dans un modèle d'hypoxie-ischémie cérébrale néonatal l'angiogenèse prenant place au cours de la phase de guérison dépend largement du récepteur. L'injection intracérébrale de succinate induit également l'expression de nombreux facteurs proangiogéniques et les résultats suggèrent que le GPR91 contrôle la production de ces facteurs. De plus, l'injection de ce métabolite avant le modèle d'hypoxie-ischémie réduit substantiellement la taille de l'infarctus. In vitro, des essaies de transcription génique démontrent qu'à la fois les neurones et les astrocytes répondent au succinate en induisant l'expression de facteurs bénéfiques à la revascularisation. En considérant le rôle physiologique important du GPR91, une seconde étude a été entreprise afin de comprendre les déterminants moléculaires régissant son activité. Bien que la localisation subcellulaire des RCPG ait traditionnellement été considérée comme étant la membrane plasmique, un nombre de publications indique la présence de ces récepteurs à l'intérieur de la cellule. En effet, tel qu'observé par microscopie confocale, le récepteur colocalise avec plusieurs marqueurs du réticulum endoplasmique, que celui-ci soit exprimé de façon endogène ou transfecté transitoirement. De plus, l’activation des gènes par stimulation avec le succinate est fortement affectée en présence d'inhibiteur du transport d'acides organiques. Nous montrons que le profil de facteurs angiogéniques est influencé selon la localisation ce qui affecte directement l'organisation du réseau tubulaire ex vivo. Finalement, nous avons identifié une région conservée du GPR91 qui agit de signal de rétention. De plus, nous avons découvert l'effet de l'hypoxie sur la localisation. Ces travaux confirment le rôle de régulateur maître de l'angiogenèse du GPR91 lors d'accumulation de succinate en condition hypoxique et démontrent pour la première fois l'existence, et l'importance, d'un récepteur intracellulaire activé par un intermédiaire du métabolisme. Ces données pavent donc la voie à une nouvelle avenue de traitement ciblant GPR91 dans des pathologies hypoxiques ischémiques cérébrales et soulèvent l'importance de tenir compte de la localisation subcellulaire de la cible dans le processus de découverte du médicament.
Resumo:
Au cours des trois dernières décennies, le travail quotidien des cadres gestionnaires infirmiers de premier niveau (CGIPN) a subi de profondes transformations quant aux rôles qu’ils occupent et aux responsabilités qui leur incombent dans les divers établissements de santé. Ces CGIPN vivent et subissent de la pression au regard de leur charge de travail, faisant en sorte qu’ils perçoivent avoir peu de temps pour réaliser adéquatement leur travail en gestion, et que plusieurs infirmières de la relève qui souhaitent faire carrière en gestion se questionnent sur la possibilité d’œuvrer dans ce domaine de la pratique. Peu d’études portent sur l’état de la qualité de vie au travail (QVT) chez ces professionnels. Divisé en trois volets, le projet de recherche mixte séquentielle exploratoire a pour objectif général d’explorer la QVT chez les CGIPN et les facteurs qui l’influencent dans les divers établissements de santé québécois. Les objectifs spécifiques visent à : 1) décrire et comprendre ce que signifie la QVT auprès des 14 CGIPN œuvrant en Centre hospitalier affilié (CHA) à l’Université, 2) décrire et comprendre ce que signifie l’absence d’une QVT auprès des CGIPN en CHA, 3) développer et valider un nouvel instrument de mesure des facteurs favorables et défavorables pouvant influer sur la QVT à partir des données qualitatives auprès de CGIPN (n= 11) œuvrant en Centre de santé et des services sociaux et de CGIPN (n= 11) en Centre hospitalier universitaire, 4) identifier et mesurer les facteurs qui influencent la QVT des CGIPN (n= 291) travaillant dans divers établissements publics de santé et 5) déterminer si les caractéristiques sociodémographiques influencent le choix des facteurs de la QVT. Inspiré de la philosophie du Human caring de Watson comme perspective disciplinaire, le premier volet qualitatif fait appel à une méthode phénoménologique descriptive husserlienne. Pour ce faire, deux séries d’entretiens semi-dirigés à l’aide d’un guide d’entrevue visent à répondre aux deux premiers objectifs. Le second volet cible l’élaboration et la validation d’un instrument de mesure permettant de répondre au troisième objectif de la recherche et le dernier volet, de type quantitatif corrélationnel, s’applique à répondre aux deux derniers objectifs. Dans la première phase, l’analyse visuelle des données qualitatives (verbatim) permet l’émergence des résultats qualitatifs, soit de cinq eidos-thèmes favorables exprimés par les participants et décrits par ordre d’importance : 1) l’actualisation du leadership et des habiletés politiques pour l’amélioration de la qualité des soins infirmiers, 2) les éléments contextuels propices à l’humanisation organisationnelle, 3) le soutien organisationnel favorisant l’épanouissement socioprofessionnel et personnel, 4) l’organisation apprenante favorisant le développement des compétences en gestion des soins infirmiers et 5) l’accompagnement personnalisé répondant aux besoins spécifiques des novices en gestion des soins infirmiers. L’essence de la QVT pour les CGIPN se définit par l’émancipation socioprofessionnelle du cadre gestionnaire infirmier de premier niveau dans sa pratique clinico-administrative au sein d’une organisation humaniste. De plus, trois eidos-thèmes défavorables se dégagent des analyses qualitatives. Les résultats, décrits par ordre d’importance, sont : 1) la déshumanisation organisationnelle, 2) les conditions défavorables à la pratique en gestion des soins infirmiers et 3) l’accompagnement insuffisant des gestionnaires infirmiers novices. L’essence de l’absence d’une QVT pour les CGIPN se présente comme la dysharmonie au travail du cadre gestionnaire infirmier de premier niveau à l’intérieur d’une structure organisationnelle déshumanisante mettant en péril sa pratique clinico-administrative. Par la suite, une mise en relation des deux essences du phénomène a permis de faire émerger la signification universelle de l’expérience de la QVT et l’absence de celle-ci pour des CGIPN œuvrant en CHA comme étant : une dialectique en administration des services infirmiers dans laquelle se vit des pratiques humanisantes permettant l’atteinte d’un idéal de QVT, en coexistence avec des pratiques déshumanisantes conduisant à l’absence de QVT. Afin de respecter les postulats des méthodes quantitatives, les huit eidos-thèmes qui émergent de la première phase qualitative se transforment en facteurs favorables (FF) et défavorables (FD) à la QVT pour la réalisation des deuxième et troisième phases de la recherche. Dans la seconde phase, le construit théorique qui provient des huit eidos-thèmes et 23 thèmes permet de développer un nouvel instrument de mesure qui s’avère unique à cette population à l’étude. L’analyse psychométrique de l’instrument de mesure (questionnaire auto-administré en mode électronique) permet l’obtention d’un score global du coefficient alpha de Cronbach (α) de 0,93, ce qui est jugé excellent. Dans la troisième et dernière phase, les analyses statistiques des données (logiciel SPSS, version 22 pour Windows 7, 2013) issues de l’enquête quantitative provinciale en ligne (Web) mettent en évidence des résultats probants. Les résultats du questionnaire en ligne avec une échelle ordinale à cinq niveaux révèlent un score global du coefficient alpha de Cronbach à 0,95. De plus, les résultats quantitatifs suggèrent que les facteurs favorables (FF) à la QVT ont des scores moyens de 3,99 (FF1), 3,97 (FF2), 3,96 (FF3), 3,72 (FF4) et 3,53 (FF5) et les trois facteurs défavorables (FD) à la QVT ont des scores moyens de 3,91(FD1), 3,78 (FD2) et 3,56 (FD3). Ces facteurs correspondent aux eidos-thèmes favorables et défavorables de la QVT du volet qualitatif phénoménologique. Les résultats quantitatifs révèlent quelques relations significatives des caractéristiques sociodémographiques (âge et années d’expérience) sur le choix des facteurs qui influencent le plus fortement la QVT. En conclusion, le fait de pouvoir mieux décrire et comprendre la signification de la QVT ainsi que son absence et de pouvoir identifier les facteurs qui sont les plus susceptibles de l’influencer permet de formuler des recommandations pour les quatre domaines de la pratique infirmière. Des pistes d’avenues sont formulées pour maintenir la relève infirmière à des postes de CGIPN au sein des organisations de santé en lui assurant des moyens pour optimiser humainement sa QVT.
Resumo:
The emerging U.S. approach linking free trade to domestic labor protections is a practical framework on which to base substantive and procedural rights. Nevertheless, much more can be done in future agreements to improve these safeguards for workers in a way that will maximize the gains from trade and reduce the most harmful effects of development. In order to improve future agreements, the U.S. should expand access to consultations within the dispute resolution mechanism, focus complaints on core rights such as organization and bargaining, encourage the development of small independent unions in corporatist cultures, and incorporate the ILO into the dispute settlement process. Finally, the civil law systems of Central America and the Anglo-American common law system may have fundamentally different understandings of the rule of law. This difference in understanding may pose a significant disadvantage for developing or civil law systems entering treaties with the U.S., and should be better understood by both sides in order to maintain the credibility of the law and the effectiveness of the treaty.
Resumo:
Most of the procedures reported for the synthesis of metal nanoparticles involve the use of strong reducing agents or elevated temperatures. This limits the possibility of developing metal nanoparticle based sensors for the in situ detection of analytes. One of the objectives of the present investigations is to (i) develop newer methodologies for the synthesis of metal nanoparticles in aqueous medium at ambient conditions and (ii) their use in the detection of metal cations by taking advantage of the unique coordination ability. Ideally, biocompatible molecules which possess both the reducing and stabilizing groups are desirable for such applications. Formation of stable supramolecular assembly, by bringing metal nanoparticles close to each other, results in plasmon coupling and this strategy can be effectively utilized for the development of metal nanoparticle based sensors.Another objective of the present study is to understand the supramolecular organization of molecules on surfaces. Various noncovalent interactions between the molecules and with surface play a decisive role in their organizations. An in-depth understanding of these interactions is essential for device fabrications. Recent photophysical studies have revealed that phenyleneethynylene based molecular systems are ideal for device application. The second objective of the thesis focuses on understanding the (i) organization of phenyleneethynylenes on highly oriented pyrolytic graphite (HOPG) surface with atomic level precision and (ii) weak intermolecular interactions which drive their organization.
Resumo:
In this introduction part, importance has been given to the elastomeric properties of polyurethanes. Emphasis has been laid to this property based on microphase separation and how this could be modified by modifying the segment lengths, as well as the structure of the segments. Implication was also made on the mechanical and thermal properties of these copolymers based on various analytical methods usually used for characterization of polymers. A brief overview of the challenges faced by the polyurethane chemistry was also done, pointing to the fact that though polyurethane industry is more than 75 years old, still a lot of questions remain unanswered, that too mostly in the synthesis of polyurethanes. A major challenge in this industry is the utilization of more environmental friendly “Green Chemistry Routes” for the synthesis of polyurethanes which are devoid of any isocyanates or harsh solvents.The research work in this thesis was focused to develop non-isocyanate green chemical process for polyurethanes and also self-organize the resultant novel polymers into nano-materials. The thesis was focused on the following three major aspects:(i) Design and development of novel melt transurethane process for polyurethanes under non-isocyanate and solvent free melt condition. (ii) Solvent induced self-organization of the novel cycloaliphatic polyurethanes prepared by the melt transurethane process into microporous templates and nano-sized polymeric hexagons and spheres. (iii) Novel polyurethane-oligophenylenevinylene random block copolymer nano-materials and their photoluminescence properties. The second chapter of the thesis gives an elaborate discussion on the “Novel Melt Transurethane Process ” for the synthesis of polyurethanes under non-isocyanate and solvent free melt condition. The polycondensation reaction was carried out between equimolar amounts of a di-urethane monomer and a diol in the presence of a catalyst under melt condition to produce polyurethanes followed by the removal of low boiling alcohol from equilibrium. The polymers synthesized through this green chemical route were found to be soluble (devoid of any cross links), thermally stable and free from any isocyanate entities. The polymerization reaction was confirmed by various analytical techniques with specific references to the extent of reaction which is the main watchful point for any successful polymerization reaction. The mechanistic aspects of the reaction were another point of consideration for the novel polymerization route which was successfully dealt with by performing various model reactions. Since this route was successful enough in synthesizing polyurethanes with novel structures, they were employed for the solvent induced self-organization which is an important area of research in the polymer world in the present scenario. Chapter three mesmerizes the reader with multitudes of morphologies depending upon the chemical backbone structure of the polyurethane as well as on the nature and amount of various solvents employed for the self-organization tactics. The rationale towards these morphologies-“Hydrogen Bonding ” have been systematically probed by various techniques. These polyurethanes were then tagged with luminescent 0ligo(phenylene vinylene) units and the effects of these OPV blocks on the morphology of the polyurethanes were analyzed in chapter four. These blocks have resulted in the formation of novel “Blue Luminescent Balls” which could find various applications in optoelectronic devices as well as delivery vehicles.
Resumo:
Occupational stress is becoming a major issue in both corporate and social agenda .In industrialized countries, there have been quite dramatic changes in the conditions at work, during the last decade ,caused by economic, social and technical development. As a consequence, the people today at work are exposed to high quantitative and qualitative demands as well as hard competition caused by global economy. A recent report says that ailments due to work related stress is likely to cost India’s exchequer around 72000 crores between 2009 and 2015. Though India is a fast developing country, it is yet to create facilities to mitigate the adverse effects of work stress, more over only little efforts have been made to assess the work related stress.In the absence of well defined standards to assess the work related stress in India, an attempt is made in this direction to develop the factors for the evaluation of work stress. Accordingly, with the help of existing literature and in consultation with the safety experts, seven factors for the evaluation of work stress is developed. An instrument ( Questionnaire) was developed using these seven factors for the evaluation of work stress .The validity , and unidimensionality of the questionnaire was ensured by confirmatory factor analysis. The reliability of the questionnaire was ensured before administration. While analyzing the relation ship between the variables, it is noted that no relationship exists between them, and hence the above factors are treated as independent factors/ variables for the purpose of research .Initially five profit making manufacturing industries, under public sector in the state of Kerala, were selected for the study. The influence of factors responsible for work stress is analyzed in these industries. These industries were classified in to two types, namely chemical and heavy engineering ,based on the product manufactured and work environment and the analysis is further carried out for these two categories.The variation of work stress with different age , designation and experience of the employees are analyzed by means of one-way ANOVA. Further three different type of modelling of work stress, namely factor modelling, structural equation modelling and multinomial logistic regression modelling was done to analyze the association of factors responsible for work stress. All these models are found equally good in predicting the work stress.The present study indicates that work stress exists among the employees in public sector industries in Kerala. Employees belonging to age group 40-45yrs and experience groups 15-20yrs had relatively higher work demand ,low job control, and low support at work. Low job control was noted among lower designation levels, particularly at the worker level in these industries. Hence the instrument developed using the seven factors namely demand, control, manager support, peer support, relationship, role and change can be effectively used for the evaluation of work stress in industries.
Resumo:
Bei der vorliegenden Arbeit handelt es sich um ein Vorhaben aus dem Bereich der Praxisforschung. Den Untersuchungsgegenstand bildet das Beteiligungsmodell für Kinder und Jugendliche der Stadt Kassel. Im Zentrum der Betrachtung steht dabei die Rolle der Erwachsenen im Zuge der Durchführung von Beteiligungsprojekten mit Kindern und Jugendlichen in Kassel, einer Großstadt mit rund 185.000 Einwohnern. Die Basis der Untersuchung bilden 17 Kriterien für professionelles Verhalten Erwachsener in Beteiligungsprozessen, die zunächst aus vier pädagogischen Richtungen abgeleitet werden. Es handelt sich dabei um die Ansätze folgender Pädagogen: • Janusz Korczak (1878-1942), polnischer Arzt, Literat, Pädagoge, • Kurt Löwenstein (1885-1939), Gründer und Förderer der sozialistischen Kinderfreunde-Bewegung, • Loris Malaguzzi (1920-1994), italienischer Pädagoge und „Urvater“ der Reggio-Pädagogik und • Olaf Axel Burow (geb. 1951), Begründer der Gestaltpädagogik. Das Hauptziel der Arbeit besteht in der Erarbeitung eines Kriterienkataloges für professionelles Verhalten Erwachsener in Beteiligungsprozessen mit Kindern und Jugendlichen. Nach der Einleitung, einer Beschreibung des der Arbeit zugrunde liegenden Verständnisses von Partizipation und der Darstellung angewandter Untersuchungsinstrumente werden im zweiten Teil neben einem Überblick über historische Vorläufer des Ansatzes Kinder und Jugendliche an der Gestaltung ihrer Lebenswelt zu beteiligen, allgemeine Grundlagen der Beteiligung von Kindern und Jugendlichen geliefert (rechtliche, Formen und Methoden der Beteiligung, Prüfsteine für gute Beteiligung...). Dieser einführende Teil endet mit der Entwicklung grundlegender Kriterien, die bei der Durchführung von Partizipationsprozessen mit Kindern und Jugendlichen berücksichtigt werden sollten bzw. müssen. Im dritten Teil werden die vier oben erwähnten pädagogischen Richtungen vorgestellt und interpretiert. Aus den vier Ansätzen werden zum einen 13 Kriterien für partizipative Erziehung herausgearbeitet zum anderen 17 Kriterien für professionelles Verhalten Erwachsener in Partizipationsprozessen abgeleitet. Anhand dieser Kriterien entsteht auch eine Definition für partizipative Erziehung. Im Zentrum des folgenden vierten Teiles der Arbeit steht zunächst die Beschreibung des Beteiligungsmodells der Stadt Kassel. Dabei bilden die Rolle der Kinderbeauftragten und die Tätigkeiten des Vereins Spielmobil Rote Rübe, der die Entwicklung des Beteiligungsansatzes mitbestimmt, sowie intensiv in die Durchführung der Beteiligungsprojekte involviert ist, die Schwerpunkte der Betrachtung. Nach einer ausführlichen Auseinandersetzung mit der Theorie und der Praxis der Kassler Beteiligungslandschaft werden die in Teil drei entwickelten Kriterien für professionelles Verhalten Erwachsener in Beteiligungsprozessen anhand der aktuellen Situation in der Stadt Kassel auf ihre Praxistauglichkeit hin untersucht und überarbeitet. Auch die in Teil drei verfasste Definition für Beteiligung erfährt einige geringfügige Veränderungen. In diesem Zusammenhang erfolgt auch eine Auseinandersetzung mit Veränderungsmöglichkeiten bzw. eine Beschreibung von Verbesserungsvorschlägen des projektorientierten Beteiligungsmodells der Stadt Kassel.
Resumo:
Arbeitszeitpolitik und Arbeitszeitgestaltung haben seit dem Tarifkompromiss im Jahre 1984 in der Metall-, und Elektroindustrie in der politischen und wissenschaftlichen Diskussion einen immensen Bedeutungszuwachs erfahren. Die Forderungen nach einer flexibleren Arbeitszeitgestaltung haben zeitgleich sowohl aus der Globalisierungsdiskussion und der Debatte um die Wettbewerbsfähigkeit des "Wirtschaftsstandorts Deutschland" heraus wie auch aus beschäftigungspolitischen Gründen neuen Auftrieb bekommen. Die Diskussion um die Arbeitszeit ist gleichzeitig von verschiedenen, meist gegensätzlichen Interessen geprägt: Auf der Beschäftigtenseite zielt die Arbeitszeitflexibilisierung nach wie vor auf Zeitsouveränität: d.h. auf eine bessere Vereinbarkeit der Arbeitszeit mit allen Aktivitäten außerhalb der Arbeitszeit ab. Demgegenüber stellt die Arbeitgeberseite den betriebswirtschaftlichen Aspekt in den Vordergrund. D.h. die Anpassung der Arbeitszeit an den tatsächlichen Arbeitsanfall. So soll durch aufeinander abgestimmte Gestaltung von Betriebszeit und Arbeitszeit die Erhöhung der Produktivität und die Sicherung der Wettbewerbsfähigkeit erzielt werden. Durch diesen Trend verlor das sog. Normalarbeitsverhältnis an Allgemeingültigkeit und die Flexibilisierung der Arbeitszeiten nahm seit langem kontinuierlich zu. Folge ist, dass mittlerweile eine breite Palette von Arbeitszeitmodellen existiert, in denen die gesetzlich und vertraglich vereinbarte Wochenarbeitszeit in den Dimensionen Lage, Länge und Verteilung flexibilisiert wird. Auch die Tarifverhandlungen und Auseinandersetzung der Tarifparteien zur Arbeitszeitpolitik sind dadurch gekennzeichnet, dass die Arbeitszeitflexibilisierung und Verlagerung der Tarifpolitik auf betriebliche Ebene einen Bedeutungszuwachs bekam und die Meinungsführerschaft in Sachen Arbeitszeitgestaltung von der IG Metall zu Gesamtmetall wechselte. Ziel der vorliegenden Dissertation war es, anhand einer empirisch-historischen Untersuchung über Einstellungen sowie Strategien von Gesamtmetall und IG Metall die Gestaltungsspielräume flexibler Arbeitszeitmodelle zu bestimmen und gleichzeitig die Defizite herauszuarbeiten. Die Untersuchung gründete sich in erster Linie auf die Dokumentenanalyse von Stellungnahmen der Gesamtmetall und IG-Metall-Leitungsgremien sowie Primär- und Sekundäranalyse von Befragungen der Beschäftigten. Die leitende Frage der Untersuchung war, ob es den Arbeitgeberverbänden und den Gewerkschaften gelingen konnte, die Erfordernisse eines Betriebes und die Belange der Beschäftigten weitgehend in Übereinstimmung zu bringen? Und (wenn ja) unter welchen Voraussetzungen die neuen flexiblen Arbeitszeitsysteme mit den betrieblichen und außerbetrieblichen Interessen der Beschäftigten zu vereinbaren sind. Den Hintergrund für diese Zielerreichung bildete der gesellschaftliche Konflikt zwischen Arbeit und Kapital. Denn die Schwierigkeit bzw. Komplexität lag in der Frage, wie die unterschiedlichen Interessen, die sich in der industriekapitalistischen Gesellschaft durch den Gegensatz "Kapital" und "Arbeit" bestimmen lassen, zu vereinbaren waren bzw. sind.
Resumo:
A high demand exists to increase the efficiency of present airport ground facilities and the co-ordination of traffic and services. The Traffic Office plays a crucial role in managing the airport. The main tasks of the Traffic Office is management of equipment, services, and ressources based on the flight schedule and resolving conflicts arising from deviations from the schedule. A new tool will support information exchange between Traffic Office and other facilities on the airport.