933 resultados para decentralized organization
Resumo:
UANL
Resumo:
In recent years, ‘agency’ has appeared in academic writings as a new way of referring to active involvement from below in development interventions. The concept of ‘agency’ starts from the assumption that people are actually agents themselves, continuously acting in and reacting to circumstances. In child labour activism, this concept has been applied to working children in the understanding that, in order to improve their working conditions, children should be organised in organizations that are exclusively for and (ideally) run by working children. This paper aims to evaluate the extent to which child labourers can become agents of change through their own organizations. The paper will draw on two studies carried out by the IREWOC foundation. In 2002 a study was undertaken in Bolivia to give practical meaning to the concept of child agency. Secondly, in 2004/2005 an investigation was carried out on the functioning and impact of children’s organizations in Peru, Bolivia and Brazil. The applied research methods were mainly anthropological and used participant observation, (semi-) informal interviews and group interviewing with working children, their parents and adult representatives of the working children’s organizations. Both investigations show that in focussing on children as active participants, the structural constraints under which children have to live also need to be highlighted. One needs to understand how material poverty, mental deprivation and disempowerment help to shape resilience and defiance, but also anger, distrust and marginalisation.
Resumo:
Les Tableaux de Bord de la Performance ont été acclamés avec raison depuis leur introduction en 1992, mais les intellectuels continuent encore à étudier leurs aspects pragmatiques. Ce papier contribue à la littérature sur les Tableaux de Bord de la Performance, tout d’abord, en offrant une explication logique quant à leur succès et ensuite, en présentant un cadre de travail contextuel de tableaux de bord de la performance pour une structure de gestion hiérarchisée. Le cadre de travail contextuel réforme la perspective d’apprentissage et de croissance du tableau de bord de la performance (i) en effectuant la transition de référence (subjective/objective), et (ii) en reconnaissant que la Perspective d’Apprentissage et de Croissance implique avant tout une incidence de formulation stratégique d’une extra-entité. Le transfert de l’incidence (intra-entité/extra-entité) réconcilie l’évolution de la position de politique de gestion non ordonnée [Contenu: (Contenu: Contexte): Contexte] qu’est la Perspective d’Apprentissage et de Croissance Concomitante. Le cadre de travail supplante également les Perspectives des Tableaux de Bord de la Performances développés par Kaplan et Norton en ajoutant la perspective de politique sociale qui manquait. La perspective manquante implique une transition de référence objective [(position endogène, perspective exogène): (position exogène, perspective exogène)]. De tels signaux de transition [Contenu: (Contenu: Contexte): Contexte] ordonnent l’évolution de la position de politique de gestion.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
Comment s’adaptent des organisations lorsqu’elles font face à des changements qui les dépassent? De cette question a émergé une recherche voulant comprendre comment et pourquoi des organisations de santé décident d’adapter (ou non) leurs services aux besoins et aux caractéristiques des populations migrantes accueillies sur leur territoire. Pour y répondre, cette thèse s’est intéressée à la gouvernance multiniveaux appliquée aux organisations de santé fournissant des services à des populations migrantes. Dans un contexte de régionalisation de l’immigration, la dynamique du processus migratoire est de mieux en mieux documentée, mais les capacités organisationnelles d’adaptation le sont beaucoup moins. Nous avons réalisé une étude de cas multiples à l’aide d’entrevues semi-directives auprès d’acteurs provenant de deux CSSS montéregiens (région au sud de Montréal, Québec) et des paliers locaux, régionaux et nationaux. Les résultats de cette étude ont permis (1) de mettre en évidence les différents acteurs impliqués dans ce processus d’adaptation, dont des acteurs de connectivité; (2) de cerner huit leviers d’action, divisés en trois catégories de leviers : administratif, émergent et d’habilitation. La possible imbrication de ces trois catégories de leviers facilite l’apparition de structures de connectivité, légitimant ainsi l’adaptation de l’organisation; et (3) de montrer l’ambigüité de l’adaptation à travers des facteurs d’influence qui favorisent ou entravent le processus d’adaptation à plusieurs niveaux de la gouvernance. Cette thèse est construite autour de quatre articles. Le premier, de nature conceptuelle, permet de circonscrire les concepts d’adaptation et de gouvernance multiniveaux à travers la lentille des théories de la complexité. Nous campons ainsi notre sujet dans une problématique liée à la vulnérabilité et la migration tout en appréhendant l’adaptation du système et son opérationnalisation au niveau local. Il en ressort un cadre conceptuel avec six propositions de recherches. Le second article permet quant à lui de comprendre les jeux des acteurs au sein d’une organisation de santé et à travers son Environnement. Le rôle spécifique d’acteurs de connectivité y est révélé. C’est dans un troisième article que nous nous intéressons davantage aux différents leviers d’action, analysés selon trois catégories : administrative, émergente et d’habilitation. Les acteurs peuvent les solliciter afin de d’adapter leurs pratiques au contexte particulier de la prise en charge de patients migrants. Un passage des acteurs aux structures de connectivité est alors rendu possible via un espace : la gouvernance multiniveaux. Enfin, le quatrième et dernier article s’articule autour de l’analyse des différents facteurs pouvant influencer l’adaptation d’une organisation de santé, en lien avec son Environnement. Il en ressort principalement que les facteurs identifiés sont pour beaucoup des leviers d’action (cf. article3) qui à travers le temps, et par récursivité, deviennent des facteurs d’influence. De plus, le type d’interdépendance développé par les acteurs a tendance soit à façonner un Environnement « stable », laissant reposer les besoins d’adaptation sur les acteurs opérationnels; soit à façonner un Environnement plus « accidenté », reposant davantage sur des interactions diversifiées entre les acteurs d’une gouvernance multiniveaux. De cette adéquation avec l’Environnement à façonner découle l’ambigüité de s’adapter ou non pour une organisation.
Resumo:
Dans les crypto-monnaies telles Bitcoin, l’anonymité des utilisateurs peut être compromise de plusieurs façons. Dans ce mémoire, nous effectuons une revue de littérature et une classification des différents protocoles existants pour anonymiser les usagers et analysons leur efficacité. S’appuyant sur certains critères désirables dans de tels protocoles, nous proposons un modèle de mixeur synchrone décentralisé. Nous avons ciblé deux approches qui s’inscrivent dans ce modèle, le plan de transaction et le réseau de transactions, le second étant une contribution originale de ce mémoire. Nous expliquons son fonctionnement puis analysons son efficacité dans le contexte actuel d’utilisation de Bitcoin
Resumo:
Most of the procedures reported for the synthesis of metal nanoparticles involve the use of strong reducing agents or elevated temperatures. This limits the possibility of developing metal nanoparticle based sensors for the in situ detection of analytes. One of the objectives of the present investigations is to (i) develop newer methodologies for the synthesis of metal nanoparticles in aqueous medium at ambient conditions and (ii) their use in the detection of metal cations by taking advantage of the unique coordination ability. Ideally, biocompatible molecules which possess both the reducing and stabilizing groups are desirable for such applications. Formation of stable supramolecular assembly, by bringing metal nanoparticles close to each other, results in plasmon coupling and this strategy can be effectively utilized for the development of metal nanoparticle based sensors.Another objective of the present study is to understand the supramolecular organization of molecules on surfaces. Various noncovalent interactions between the molecules and with surface play a decisive role in their organizations. An in-depth understanding of these interactions is essential for device fabrications. Recent photophysical studies have revealed that phenyleneethynylene based molecular systems are ideal for device application. The second objective of the thesis focuses on understanding the (i) organization of phenyleneethynylenes on highly oriented pyrolytic graphite (HOPG) surface with atomic level precision and (ii) weak intermolecular interactions which drive their organization.
Resumo:
In this introduction part, importance has been given to the elastomeric properties of polyurethanes. Emphasis has been laid to this property based on microphase separation and how this could be modified by modifying the segment lengths, as well as the structure of the segments. Implication was also made on the mechanical and thermal properties of these copolymers based on various analytical methods usually used for characterization of polymers. A brief overview of the challenges faced by the polyurethane chemistry was also done, pointing to the fact that though polyurethane industry is more than 75 years old, still a lot of questions remain unanswered, that too mostly in the synthesis of polyurethanes. A major challenge in this industry is the utilization of more environmental friendly “Green Chemistry Routes” for the synthesis of polyurethanes which are devoid of any isocyanates or harsh solvents.The research work in this thesis was focused to develop non-isocyanate green chemical process for polyurethanes and also self-organize the resultant novel polymers into nano-materials. The thesis was focused on the following three major aspects:(i) Design and development of novel melt transurethane process for polyurethanes under non-isocyanate and solvent free melt condition. (ii) Solvent induced self-organization of the novel cycloaliphatic polyurethanes prepared by the melt transurethane process into microporous templates and nano-sized polymeric hexagons and spheres. (iii) Novel polyurethane-oligophenylenevinylene random block copolymer nano-materials and their photoluminescence properties. The second chapter of the thesis gives an elaborate discussion on the “Novel Melt Transurethane Process ” for the synthesis of polyurethanes under non-isocyanate and solvent free melt condition. The polycondensation reaction was carried out between equimolar amounts of a di-urethane monomer and a diol in the presence of a catalyst under melt condition to produce polyurethanes followed by the removal of low boiling alcohol from equilibrium. The polymers synthesized through this green chemical route were found to be soluble (devoid of any cross links), thermally stable and free from any isocyanate entities. The polymerization reaction was confirmed by various analytical techniques with specific references to the extent of reaction which is the main watchful point for any successful polymerization reaction. The mechanistic aspects of the reaction were another point of consideration for the novel polymerization route which was successfully dealt with by performing various model reactions. Since this route was successful enough in synthesizing polyurethanes with novel structures, they were employed for the solvent induced self-organization which is an important area of research in the polymer world in the present scenario. Chapter three mesmerizes the reader with multitudes of morphologies depending upon the chemical backbone structure of the polyurethane as well as on the nature and amount of various solvents employed for the self-organization tactics. The rationale towards these morphologies-“Hydrogen Bonding ” have been systematically probed by various techniques. These polyurethanes were then tagged with luminescent 0ligo(phenylene vinylene) units and the effects of these OPV blocks on the morphology of the polyurethanes were analyzed in chapter four. These blocks have resulted in the formation of novel “Blue Luminescent Balls” which could find various applications in optoelectronic devices as well as delivery vehicles.
Resumo:
Sowohl die Ressourcenproblematik als auch die drohenden Ausmaße der Klimaänderung lassen einen Umstieg auf andere Energiequellen langfristig unausweichlich erscheinen und mittelfristig als dringend geboten. Unabhängig von der Frage, auf welchem Niveau sich der Energiebedarf stabilisieren lässt, bleibt dabei zu klären, welche Möglichkeiten sich aus technischer und wirtschaftlicher Sicht in Zukunft zur Deckung unseres Energiebedarfs anbieten. Eine aussichtsreiche Option besteht in der Nutzung regenerativer Energien in ihrer ganzen Vielfalt. Die Arbeit "Szenarien zur zukünftigen Stromversorgung, kostenoptimierte Variationen zur Versorgung Europas und seiner Nachbarn mit Strom aus erneuerbaren Energien" konzentriert sich mit der Stromversorgung auf einen Teilaspekt der Energieversorgung, der zunehmend an Wichtigkeit gewinnt und als ein Schlüssel zur nachhaltigen Energieversorgung interpretiert werden kann. Die Stromversorgung ist heute weltweit für etwa die Hälfte des anthropogenen CO2-Ausstoßes verantwortlich. In dieser Arbeit wurden anhand verschiedener Szenarien Möglichkeiten einer weitgehend CO2–neutralen Stromversorgung für Europa und seine nähere Umgebung untersucht, wobei das Szenariogebiet etwa 1,1 Mrd. Einwohner und einen Stromverbrauch von knapp 4000 TWh/a umfasst. Dabei wurde untersucht, wie die Stromversorgung aufgebaut sein sollte, damit sie möglichst kostengünstig verwirklicht werden kann. Diese Frage wurde beispielsweise für Szenarien untersucht, in denen ausschließlich heute marktverfügbare Techniken berücksichtigt wurden. Auch der Einfluss der Nutzung einiger neuer Technologien, die bisher noch in Entwicklung sind, auf die optimale Gestaltung der Stromversorgung, wurde anhand einiger Beispiele untersucht. Die Konzeption der zukünftigen Stromversorgung sollte dabei nach Möglichkeit objektiven Kriterien gehorchen, die auch die Vergleichbarkeit verschiedener Versorgungsansätze gewährleisten. Dafür wurde ein Optimierungsansatz gewählt, mit dessen Hilfe sowohl bei der Konfiguration als auch beim rechnerischen Betrieb des Stromversorgungssystems weitgehend auf subjektive Entscheidungsprozesse verzichtet werden kann. Die Optimierung hatte zum Ziel, für die definierte möglichst realitätsnahe Versorgungsaufgabe den idealen Kraftwerks- und Leitungspark zu bestimmen, der eine kostenoptimale Stromversorgung gewährleistet. Als Erzeugungsoptionen werden dabei u.a. die Nutzung Regenerativer Energien durch Wasserkraftwerke, Windenergiekonverter, Fallwindkraftwerke, Biomassekraftwerke sowie solare und geothermische Kraftwerke berücksichtigt. Abhängig von den gewählten Randbedingungen ergaben sich dabei unterschiedliche Szenarien. Das Ziel der Arbeit war, mit Hilfe unterschiedlicher Szenarien eine breite Basis als Entscheidungsgrundlage für zukünftige politische Weichenstellungen zu schaffen. Die Szenarien zeigen Optionen für eine zukünftige Gestaltung der Stromversorgung auf, machen Auswirkungen verschiedener – auch politischer – Rahmenbedingungen deutlich und stellen so die geforderte Entscheidungsgrundlage bereit. Als Grundlage für die Erstellung der Szenarien mussten die verschiedenen Potentiale erneuerbarer Energien in hoher zeitlicher und räumlicher Auflösung ermittelt werden, mit denen es erstmals möglich war, die Fragen einer großräumigen regenerativen Stromversorgung ohne ungesicherte Annahmen anhand einer verlässlichen Datengrundlage anzugehen. Auch die Charakteristika der verschiedensten Energiewandlungs- und Transportsysteme mussten studiert werden und sind wie deren Kosten und die verschiedenen Potentiale in der vorliegenden Arbeit ausführlich diskutiert. Als Ausgangsszenario und Bezugspunkt dient ein konservatives Grundszenario. Hierbei handelt es sich um ein Szenario für eine Stromversorgung unter ausschließlicher Nutzung erneuerbarer Energien, die wiederum ausschließlich auf heute bereits entwickelte Technologien zurückgreift und dabei für alle Komponenten die heutigen Kosten zugrundelegt. Dieses Grundszenario ist dementsprechend auch als eine Art konservative Worst-Case-Abschätzung für unsere Zukunftsoptionen bei der regenerativen Stromversorgung zu verstehen. Als Ergebnis der Optimierung basiert die Stromversorgung beim Grundszenario zum größten Teil auf der Stromproduktion aus Windkraft. Biomasse und schon heute bestehende Wasserkraft übernehmen den überwiegenden Teil der Backup-Aufgaben innerhalb des – mit leistungsstarker HGÜ (Hochspannungs–Gleichstrom–Übertragung) verknüpften – Stromversorgungsgebiets. Die Stromgestehungskosten liegen mit 4,65 €ct / kWh sehr nahe am heute Üblichen. Sie liegen niedriger als die heutigen Preisen an der Strombörse. In allen Szenarien – außer relativ teuren, restriktiv ”dezentralen” unter Ausschluss großräumig länderübergreifenden Stromtransports – spielt der Stromtransport eine wichtige Rolle. Er wird genutzt, um Ausgleichseffekte bei der dargebotsabhängigen Stromproduktion aus erneuerbaren Quellen zu realisieren, gute kostengünstige Potentiale nutzbar zu machen und um die Speicherwasserkraft sowie die dezentral genutzte Biomasse mit ihrer Speicherfähigkeit für großräumige Backup-Aufgaben zu erschließen. Damit erweist sich der Stromtransport als einer der Schlüssel zu einer kostengünstigen Stromversorgung. Dies wiederum kann als Handlungsempfehlung bei politischen Weichenstellungen interpretiert werden, die demnach gezielt auf internationale Kooperation im Bereich der Nutzung erneuerbarer Energien setzen und insbesondere den großräumigen Stromtransport mit einbeziehen sollten. Die Szenarien stellen detaillierte und verlässliche Grundlagen für wichtige politische und technologische Zukunftsentscheidungen zur Verfügung. Sie zeigen, dass bei internationaler Kooperation selbst bei konservativen Annahmen eine rein regenerative Stromversorgung möglich ist, die wirtschaftlich ohne Probleme zu realisieren wäre und verweisen den Handlungsbedarf in den Bereich der Politik. Eine wesentliche Aufgabe der Politik läge darin, die internationale Kooperation zu organisieren und Instrumente für eine Umgestaltung der Stromversorgung zu entwickeln. Dabei kann davon ausgegangen werden, dass nicht nur ein sinnvoller Weg zu einer CO2–neutralen Stromversorgung beschritten würde, sondern sich darüber hinaus ausgezeichnete Entwicklungsperspektiven für die ärmeren Nachbarstaaten der EU und Europas eröffnen.
Resumo:
Die Bedeutung des Dienstgüte-Managements (SLM) im Bereich von Unternehmensanwendungen steigt mit der zunehmenden Kritikalität von IT-gestützten Prozessen für den Erfolg einzelner Unternehmen. Traditionell werden zur Implementierung eines wirksamen SLMs Monitoringprozesse in hierarchischen Managementumgebungen etabliert, die einen Administrator bei der notwendigen Rekonfiguration von Systemen unterstützen. Auf aktuelle, hochdynamische Softwarearchitekturen sind diese hierarchischen Ansätze jedoch nur sehr eingeschränkt anwendbar. Ein Beispiel dafür sind dienstorientierte Architekturen (SOA), bei denen die Geschäftsfunktionalität durch das Zusammenspiel einzelner, voneinander unabhängiger Dienste auf Basis deskriptiver Workflow-Beschreibungen modelliert wird. Dadurch ergibt sich eine hohe Laufzeitdynamik der gesamten Architektur. Für das SLM ist insbesondere die dezentrale Struktur einer SOA mit unterschiedlichen administrativen Zuständigkeiten für einzelne Teilsysteme problematisch, da regelnde Eingriffe zum einen durch die Kapselung der Implementierung einzelner Dienste und zum anderen durch das Fehlen einer zentralen Kontrollinstanz nur sehr eingeschränkt möglich sind. Die vorliegende Arbeit definiert die Architektur eines SLM-Systems für SOA-Umgebungen, in dem autonome Management-Komponenten kooperieren, um übergeordnete Dienstgüteziele zu erfüllen: Mithilfe von Selbst-Management-Technologien wird zunächst eine Automatisierung des Dienstgüte-Managements auf Ebene einzelner Dienste erreicht. Die autonomen Management-Komponenten dieser Dienste können dann mithilfe von Selbstorganisationsmechanismen übergreifende Ziele zur Optimierung von Dienstgüteverhalten und Ressourcennutzung verfolgen. Für das SLM auf Ebene von SOA Workflows müssen temporär dienstübergreifende Kooperationen zur Erfüllung von Dienstgüteanforderungen etabliert werden, die sich damit auch über mehrere administrative Domänen erstrecken können. Eine solche zeitlich begrenzte Kooperation autonomer Teilsysteme kann sinnvoll nur dezentral erfolgen, da die jeweiligen Kooperationspartner im Vorfeld nicht bekannt sind und – je nach Lebensdauer einzelner Workflows – zur Laufzeit beteiligte Komponenten ausgetauscht werden können. In der Arbeit wird ein Verfahren zur Koordination autonomer Management-Komponenten mit dem Ziel der Optimierung von Antwortzeiten auf Workflow-Ebene entwickelt: Management-Komponenten können durch Übertragung von Antwortzeitanteilen untereinander ihre individuellen Ziele straffen oder lockern, ohne dass das Gesamtantwortzeitziel dadurch verändert wird. Die Übertragung von Antwortzeitanteilen wird mithilfe eines Auktionsverfahrens realisiert. Technische Grundlage der Kooperation bildet ein Gruppenkommunikationsmechanismus. Weiterhin werden in Bezug auf die Nutzung geteilter, virtualisierter Ressourcen konkurrierende Dienste entsprechend geschäftlicher Ziele priorisiert. Im Rahmen der praktischen Umsetzung wird die Realisierung zentraler Architekturelemente und der entwickelten Verfahren zur Selbstorganisation beispielhaft für das SLM konkreter Komponenten vorgestellt. Zur Untersuchung der Management-Kooperation in größeren Szenarien wird ein hybrider Simulationsansatz verwendet. Im Rahmen der Evaluation werden Untersuchungen zur Skalierbarkeit des Ansatzes durchgeführt. Schwerpunkt ist hierbei die Betrachtung eines Systems aus kooperierenden Management-Komponenten, insbesondere im Hinblick auf den Kommunikationsaufwand. Die Evaluation zeigt, dass ein dienstübergreifendes, autonomes Performance-Management in SOA-Umgebungen möglich ist. Die Ergebnisse legen nahe, dass der entwickelte Ansatz auch in großen Umgebungen erfolgreich angewendet werden kann.
Resumo:
The work described in this thesis began as an inquiry into the nature and use of optimization programs based on "genetic algorithms." That inquiry led, eventually, to three powerful heuristics that are broadly applicable in gradient-ascent programs: First, remember the locations of local maxima and restart the optimization program at a place distant from previously located local maxima. Second, adjust the size of probing steps to suit the local nature of the terrain, shrinking when probes do poorly and growing when probes do well. And third, keep track of the directions of recent successes, so as to probe preferentially in the direction of most rapid ascent. These algorithms lie at the core of a novel optimization program that illustrates the power to be had from deploying them together. The efficacy of this program is demonstrated on several test problems selected from a variety of fields, including De Jong's famous test-problem suite, the traveling salesman problem, the problem of coordinate registration for image guided surgery, the energy minimization problem for determining the shape of organic molecules, and the problem of assessing the structure of sedimentary deposits using seismic data.
Resumo:
The furious pace of Moore's Law is driving computer architecture into a realm where the the speed of light is the dominant factor in system latencies. The number of clock cycles to span a chip are increasing, while the number of bits that can be accessed within a clock cycle is decreasing. Hence, it is becoming more difficult to hide latency. One alternative solution is to reduce latency by migrating threads and data, but the overhead of existing implementations has previously made migration an unserviceable solution so far. I present an architecture, implementation, and mechanisms that reduces the overhead of migration to the point where migration is a viable supplement to other latency hiding mechanisms, such as multithreading. The architecture is abstract, and presents programmers with a simple, uniform fine-grained multithreaded parallel programming model with implicit memory management. In other words, the spatial nature and implementation details (such as the number of processors) of a parallel machine are entirely hidden from the programmer. Compiler writers are encouraged to devise programming languages for the machine that guide a programmer to express their ideas in terms of objects, since objects exhibit an inherent physical locality of data and code. The machine implementation can then leverage this locality to automatically distribute data and threads across the physical machine by using a set of high performance migration mechanisms. An implementation of this architecture could migrate a null thread in 66 cycles -- over a factor of 1000 improvement over previous work. Performance also scales well; the time required to move a typical thread is only 4 to 5 times that of a null thread. Data migration performance is similar, and scales linearly with data block size. Since the performance of the migration mechanism is on par with that of an L2 cache, the implementation simulated in my work has no data caches and relies instead on multithreading and the migration mechanism to hide and reduce access latencies.