866 resultados para Temporary
Resumo:
In this computerized, globalised and internet world our computer collects various types of information’s about every human being and stores them in files secreted deep on its hard drive. Files like cache, browser history and other temporary Internet files can be used to store sensitive information like logins and passwords, names addresses, and even credit card numbers. Now, a hacker can get at this information by wrong means and share with someone else or can install some nasty software on your computer that will extract your sensitive and secret information. Identity Theft posses a very serious problem to everyone today. If you have a driver’s license, a bank account, a computer, ration card number, PAN card number, ATM card or simply a social security number you are more than at risk, you are a target. Whether you are new to the idea of ID Theft, or you have some unanswered questions, we’ve compiled a quick refresher list below that should bring you up to speed. Identity theft is a term used to refer to fraud that involves pretending to be someone else in order to steal money or get other benefits. Identity theft is a serious crime, which is increasing at tremendous rate all over the world after the Internet evolution. There is widespread agreement that identity theft causes financial damage to consumers, lending institutions, retail establishments, and the economy as a whole. Surprisingly, there is little good public information available about the scope of the crime and the actual damages it inflicts. Accounts of identity theft in recent mass media and in film or literature have centered on the exploits of 'hackers' - variously lauded or reviled - who are depicted as cleverly subverting corporate firewalls or other data protection defenses to gain unauthorized access to credit card details, personnel records and other information. Reality is more complicated, with electronic identity fraud taking a range of forms. The impact of those forms is not necessarily quantifiable as a financial loss; it can involve intangible damage to reputation, time spent dealing with disinformation and exclusion from particular services because a stolen name has been used improperly. Overall we can consider electronic networks as an enabler for identity theft, with the thief for example gaining information online for action offline and the basis for theft or other injury online. As Fisher pointed out "These new forms of hightech identity and securities fraud pose serious risks to investors and brokerage firms across the globe," I am a victim of identity theft. Being a victim of identity theft I felt the need for creating an awareness among the computer and internet users particularly youngsters in India. Nearly 70 per cent of Indian‘s population are living in villages. Government of India already started providing computer and internet facilities even to the remote villages through various rural development and rural upliftment programmes. Highly educated people, established companies, world famous financial institutions are becoming victim of identity theft. The question here is how vulnerable the illiterate and innocent rural people are if they suddenly exposed to a new device through which some one can extract and exploit their personal data without their knowledge? In this research work an attempt has been made to bring out the real problems associated with Identity theft in developed countries from an economist point of view.
Resumo:
Professor Irma Glicman Adelman, an Irish Economist working in California University at Berkely, in her research work on ‘Development Over Two Centuries’, which is published in the Journal of Evolutionary Economics, 1995, has identified that India, along with China, would be one of the largest economies in this 21st Century. She has stated that the period 1700 - 1820 is the period of Netherlands, the period 1820 - 1890 is the period of England the period 1890 - 2000 is the period of America and this 21st Century is the century of China and India. World Bank has also identified India as one of the leading players of this century after China. India will be third largest economy after USA and China. India will challenge the Global Economic Order in the next 15 years. India will overtake Italian economy in 2015, England economy in 2020, Japan economy in 2025 and USA economy in 2050 (China will overtake Japan economy in 2016 and USA economy in 2027). India has the following advantages compared with other economies. India is 4th largest GDP in the world in terms of Purchasing Power. India is third fastest growing economy in the world after China and Vietnam. Service sector contributes around 57% of GDP. The share of agriculture is around 17% and Manufacture is 16% in 2005 - 2006. This is a character of a developed country. Expected GDP growth rate is 10% shortly (It has come down from 9.2% in 2006 - 2007 to 6.2% during 2008 - 2009 due to recession. It is only a temporary phenomenon). India has $284 billion as Foreign Exchange Reserve as on today. India had just $1 billion as Foreign Exchange Reserve when it opened its economy in the year 1991. In this research paper an attempt has been made to study the two booming economies of the globe with respect to their foreign exchange reserves. This study mainly based on secondary data published by respective governments and various studies done on this area
Resumo:
Two new clam shrimp species belonging to the genera Eulimnadia Packard, 1874 and Leptestheria Sars 1898 from Kerala, India are described. Spinicaudatan clam shrimp are among the least studied groups in India, with only 30 species reported. Eulimnadia azisi sp. nov. was collected from rain fed, temporary, rocky depressions at Vettilapara, in Western Ghats, Kerala. No males were observed and the population may be hermaphroditic. Leptestheria dumonti sp. nov. was collected from the paddy fields at Parapukara, Kerala. Altogether two species of Leptestheria and nine species of Eulimnadia have been reported from India, and this is the first report of the genus Leptestheria from Kerala.
Resumo:
Zwischennutzungen sind ein Alltagsphänomen, das seit Ende der 1990er Jahre im wissenschaftlichen Kontext und der kommunalen Praxis der Stadt- und Freiraumentwicklung auffallend an Aufmerksamkeit gewinnt. Die vorliegende Arbeit widmet sich dem Phänomen aus der Perspektive der Freiraumentwicklung als kommunaler Aufgabe. Im Zentrum des Interesses steht die Frage, welche aktuelle Bedeutung Zwischennutzungen, verstanden als die vorübergehende Freiraumnutzung brachliegender Baugrundstücke, für freiraumbezogene öffentliche Aufgaben und Handlungsansätze haben bzw. welche Potentiale sie dafür bieten. Vor dem Hintergrund heterogener gesellschaftlicher und räumlicher Gegebenheiten, der Erkenntnis um eine begrenzte hoheitliche Steuerbarkeit der weiteren stadträumlichen Entwicklung und angesichts knapper Haushaltsmittel ist die kommunale Freiraumentwicklung gefordert, sich bezüglich ihrer Kernaufgaben aber auch bezüglich ihrer Rolle bei der Erfüllung dieser Aufgaben neu zu positionieren. Vermehrt werden Forderungen nach einem Abgehen von „allgemeingültigen“ Versorgungsstandards und traditionellen „Produktionsprozessen“ laut. Flexiblere Freiraumangebote sollen Gestaltungsspielräume für eigeninitiatives Handeln und wechselhafte oder neuartige Nutzungen eröffnen. Mit dem Setzen von Prioritäten, einer verstärkten Kundenorientierung und aktivierenden bzw. kooperativen Handlungsansätzen soll der schlechten Haushaltslage begegnet werden. Zwischennutzungen deuten aufgrund ihrer funktionalen, räumlichen und zeitlichen Flexibilität Möglichkeiten an, auf diese Anforderungen einzugehen. Der Blick in die Verwaltungspraxis einzelner Städte zeigt, dass Zwischennutzungen in der kommunalen Freiraumentwicklung in verschiedenen Zusammenhängen gezielt aufgegriffen werden und dabei diverse Bezüge zu diesen aktuellen Anforderungen herstellen lassen. Der Stellenwert, der ihnen beigemessen wird, reicht dabei vom Ausnahmefall bis zum bewährten Ansatz. Mit den Maßnahmen werden häufig akute bzw. kurzfristige Ziele verfolgt, etwa die vorübergehende Schaffung zusätzlicher Spiel- und Aufenthaltsmöglichkeiten oder die Aufwertung brachliegender Flächen durch extensive Gestaltungsmaßnahmen. Die Projekte sind häufig charakterisiert durch intensive Kooperationen mit anderen öffentlichen und mit nicht-öffentlichen Akteuren. Die Einbindung von Zwischennutzungen in das alltägliche Verwaltungshandeln ist allerdings auch mit diversen Schwierigkeiten verbunden, wie erste Institutionalisierungsansätze in manchen Städten zeigen. Die Verknüpfung unterschiedlicher Zeithorizonte im Planungsgeschehen, die Verbindung des temporären Phänomens Zwischennutzung mit dem traditionellerweise auf Dauerhaftigkeit ausgerichteten Aufgabenverständnis der kommunalen Freiraumentwicklung verlangt nach einer Modifizierung bisheriger Positionen und Herangehensweisen. Ein solcher Anpassungsprozess im Verwaltungshandeln lässt sich nur langfristig und schrittweise bewältigen und ist als Teil der – angesichts aktueller Entwicklungen notwendigen – Weiterentwicklung freiraumbezogener Aufgaben und Handlungsansätze zu verstehen. Zwischennutzungen können neben ihren kurzfristig umsetzbaren Funktionen einen Beitrag dazu leisten.
Resumo:
An important feature of maintaining the agricultural stability in millennia-old mountain oases of northern Oman is the temporary abandonment of terraces. To analyse the effects of a fallow period on soil microbial performance, i.e. microbial activity and microbial biomass, samples of eight terrace soils abandoned for different periods were collected in situ, assigned to four fallow age classes and incubated for 30 days in the laboratory after rewetting. The younger fallow age classes of 1 and 5 years were based on the records of the farmers’ recollections, the two older fallow age classes of 10–20 and 25–60 years according to the increase in the D -to- L ratio of valine and leucine enantiomers. The increase in these two ratios was in agreement with that of the D -to- L ratio of lysine. The strongest relationship was observed between the increase in the D -to- L ratio of lysine and the decrease in soil microbial biomass C. However, the most stringent coherence between the increase in fallow age and soil properties was revealed by the decreases in cumulative respiration and net N mineralisation rates with decreasing availability of substrate to soil microorganisms. During the 30-day incubation following rewetting, relative changes in microbial activity (respiration and net N mineralisation) and microbial biomass (C and N)indices were similar in the eight terrace soils on a fallow age-class-specific level, indicating that the same basic processes occurred in all of the sandy terrace soils investigated.
Resumo:
The recent discovery of the monumental 5000 years old tower tombs on top of the up to 1850 m high Shir plateau has raised numerous questions about the economic and infrastructural basis of the agro-pastoral-piscicultural society which likely has constructed them. The scattered oasis settlement of Maqta, situated just below the towers in a rugged desert environment has therefore been studied from 2001 to 2003 to understand its prehistoric and present role along the ancient trade route which connected the inner-Omani Sharqiya across the southern Hajar mountains with the ocean port of Tiwi. Maqta consists of a central area with 59 buildings and 12 scattered temporary settlements comprising a total of about 200 semi-nomadic inhabitants and next to 900 sheep and goats. The 22 small springs with a flow rate between 5 and 1212-l h^-1 are watering 16 terrace systems totaling 4.5 ha of which 2.9 ha are planted to date palms (Phoenix dactylifera L.), 0.4 ha to wheat landraces (Triticum durum and Triticum aestivum) during the cooler winter months, 0.4 are left fallow and 0.8 h are abandoned. During a pronounced drought period from 2001 to 2003, the springs’ flow rate declined between 38% and 72%. Most of the recent buildings of the central housing area were found empty or used as temporary stores by the agro-pastoral population watching their flocks on the surrounding dry mountains. There is no indication that there ever was a settlement older than the present one. A number of Hafit (3100–2700 BC) and Umm an-Nar (2700–2000 BC) tombs just above the central housing area and further along one of the trade routes to the coast are the only indication of an old pastoral landuse in Maqta territory where oasis agriculture may have entered only well after 1000 AD. With this little evidence of existence during the 3rd millennium BC, Maqta is unlikely to have played any major role favouring the construction of the nearby monumental Shir tower tombs other than providing water for herders and their flocks, early migrant traders or tower tomb constructors.
Resumo:
Die Bedeutung des Dienstgüte-Managements (SLM) im Bereich von Unternehmensanwendungen steigt mit der zunehmenden Kritikalität von IT-gestützten Prozessen für den Erfolg einzelner Unternehmen. Traditionell werden zur Implementierung eines wirksamen SLMs Monitoringprozesse in hierarchischen Managementumgebungen etabliert, die einen Administrator bei der notwendigen Rekonfiguration von Systemen unterstützen. Auf aktuelle, hochdynamische Softwarearchitekturen sind diese hierarchischen Ansätze jedoch nur sehr eingeschränkt anwendbar. Ein Beispiel dafür sind dienstorientierte Architekturen (SOA), bei denen die Geschäftsfunktionalität durch das Zusammenspiel einzelner, voneinander unabhängiger Dienste auf Basis deskriptiver Workflow-Beschreibungen modelliert wird. Dadurch ergibt sich eine hohe Laufzeitdynamik der gesamten Architektur. Für das SLM ist insbesondere die dezentrale Struktur einer SOA mit unterschiedlichen administrativen Zuständigkeiten für einzelne Teilsysteme problematisch, da regelnde Eingriffe zum einen durch die Kapselung der Implementierung einzelner Dienste und zum anderen durch das Fehlen einer zentralen Kontrollinstanz nur sehr eingeschränkt möglich sind. Die vorliegende Arbeit definiert die Architektur eines SLM-Systems für SOA-Umgebungen, in dem autonome Management-Komponenten kooperieren, um übergeordnete Dienstgüteziele zu erfüllen: Mithilfe von Selbst-Management-Technologien wird zunächst eine Automatisierung des Dienstgüte-Managements auf Ebene einzelner Dienste erreicht. Die autonomen Management-Komponenten dieser Dienste können dann mithilfe von Selbstorganisationsmechanismen übergreifende Ziele zur Optimierung von Dienstgüteverhalten und Ressourcennutzung verfolgen. Für das SLM auf Ebene von SOA Workflows müssen temporär dienstübergreifende Kooperationen zur Erfüllung von Dienstgüteanforderungen etabliert werden, die sich damit auch über mehrere administrative Domänen erstrecken können. Eine solche zeitlich begrenzte Kooperation autonomer Teilsysteme kann sinnvoll nur dezentral erfolgen, da die jeweiligen Kooperationspartner im Vorfeld nicht bekannt sind und – je nach Lebensdauer einzelner Workflows – zur Laufzeit beteiligte Komponenten ausgetauscht werden können. In der Arbeit wird ein Verfahren zur Koordination autonomer Management-Komponenten mit dem Ziel der Optimierung von Antwortzeiten auf Workflow-Ebene entwickelt: Management-Komponenten können durch Übertragung von Antwortzeitanteilen untereinander ihre individuellen Ziele straffen oder lockern, ohne dass das Gesamtantwortzeitziel dadurch verändert wird. Die Übertragung von Antwortzeitanteilen wird mithilfe eines Auktionsverfahrens realisiert. Technische Grundlage der Kooperation bildet ein Gruppenkommunikationsmechanismus. Weiterhin werden in Bezug auf die Nutzung geteilter, virtualisierter Ressourcen konkurrierende Dienste entsprechend geschäftlicher Ziele priorisiert. Im Rahmen der praktischen Umsetzung wird die Realisierung zentraler Architekturelemente und der entwickelten Verfahren zur Selbstorganisation beispielhaft für das SLM konkreter Komponenten vorgestellt. Zur Untersuchung der Management-Kooperation in größeren Szenarien wird ein hybrider Simulationsansatz verwendet. Im Rahmen der Evaluation werden Untersuchungen zur Skalierbarkeit des Ansatzes durchgeführt. Schwerpunkt ist hierbei die Betrachtung eines Systems aus kooperierenden Management-Komponenten, insbesondere im Hinblick auf den Kommunikationsaufwand. Die Evaluation zeigt, dass ein dienstübergreifendes, autonomes Performance-Management in SOA-Umgebungen möglich ist. Die Ergebnisse legen nahe, dass der entwickelte Ansatz auch in großen Umgebungen erfolgreich angewendet werden kann.
Resumo:
Diese Arbeit behandelt Controlled Traffic Farming (CTF) Anbausysteme, bei denen für alle Arbeitsgänge satellitengesteuert immer dieselben Fahrspuren benutzt werden. Lässt sich mit CTF die Belastung des Bodens verringern und die Effizienz von Direktsaat-Anbausystemen steigern? Neben agronomischen und bodenphysikalischen Parametern wurden Auswirkungen von Lenksystemen und Umsetzungsmöglichkeiten von CTF in die Praxis untersucht. Die Analyse einer CTF-Umsetzung unter europäischen Bedingungen mit der Verwendung von Standardmaschinen zeigte, dass sich CTF-Anbausysteme mit den heute zur Verfügung stehenden Maschinen für Dauergrünland, Mähdruschfrüchte und Mais auf kleiner und grösser strukturierten Flächen relativ einfach mechanisieren lassen. Bei Zuckerrüben und Kartoffeln können Kompromisse notwendig sein. Generell erfordern CTF-Anbausysteme eine sorgfältige Planung und Umsetzung in die Praxis. Im dreijährigen Feldversuch (Winterweizen, Wintergerste, Kunstwiese mit Kleegrasmischung) auf einem Lehmboden wurde CTF-Direktsaat mit konventionell zufällig befahrenen Direktsaat- und Pflugverfahren verglichen. Unter CTF zeigte sich eine Differenzierung der nicht, gering und intensiv befahrenen Varianten. Auf dem vorliegenden kompakten Boden mit 1150 mm Jahresniederschlag waren die Unterschiede zwischen den nicht befahrenen Flächen und den mit niedrigem Kontaktflächendruck befahrenen Flächen eher gering. In den nicht befahrenen Flächen entwickelten Eindringwiderstand und Kohlendioxidgehalt der Bodenluft nach drei Jahren signifikant bessere Werte. Bodendichte und Porosität zeigten hingegen keinen eindeutig interpretierbaren Trend. Aufgrund teils suboptimaler Feldaufgänge liess sich keine generelle agronomische Tendenz ableiten. Die intensive Befahrung der Pflegefahrgassen zeigte allerdings klar negative bodenkundliche und planzenbauliche Auswirkungen. Es bietet sich daher an, vor allem für Pflegearbeiten permanent dieselben Fahrspuren zu nutzen. In der Untersuchung zu den Auswirkungen von Lenksystemen zeigten sich signifikante Vorteile von Lenksystemen in einer Verminderung der Fahrerbelastung und einer höheren Lenkgenauigkeit vor allem bei grossen Arbeitsbreiten ohne Spuranreisser. Die meisten anderen Messparameter waren mit Lenksystem leicht vorteilhafter als ohne, unterschieden sich aber nicht signifikant voneinander. Fahrer und naturräumliche Gegebenheiten wie die Schlagform hatten einen wesentlich grösseren Einfluss. Gesamthaft betrachtet erweitert CTF in Kombination mit weiteren Bodenschutzmass-nahmen die Möglichkeiten, Bodenverdichtungen zu vermeiden, den Bedarf an energieintensiver Bodenlocke-rung zu reduzieren und die Entwicklung einer stabileren Bodenstruktur mit höherer Tragfähigkeit zu fördern. Zusammen mit einer an Kultur und Anbausystem angepassten Saatbettbereitung und den in geraden Reihen einfacher durchführbaren mechanischen Pflegemassnahmen ergeben sich gute Voraussetzungen für die Gestaltung agronomisch leistungsfähiger und ökologisch nachhaltiger Anbausysteme.
Resumo:
Much of the self-image of the Western university hangs on the idea that research and teaching are intimately connected. The central axiom here is that research and teaching are mutually supportive of each other. An institution lacking such a set of relationships between research and teaching falls short of what it means to be a university. This set of beliefs raises certain questions: Is it the case that the presence of such a mutually supportive set of relationships between research and teaching is a necessary condition of the fulfilment of the idea of the university? (A conceptual question). And is it true that, in practice today, such a mutually supportive set of relationships between research and teaching characterises universities? (An empirical question). In my talk, I want to explore these matters in a critical vein. I shall suggest that: a) In practice today, such a mutually supportive set of relationships between research and teaching is in jeopardy. Far from supporting each other, very often research and teaching contend against each other. Research and teaching are becoming two separate ideologies, with their own interest structures. b) Historically, the supposed tight link between research and teaching is both of recent origin and far from universally achieved in universities. Institutional separateness between research and teaching is and has been evident, both across institutions and even across departments in the same institution. c) Conceptually, research and teaching are different activities: each is complex and neither is reducible to the other. In theory, therefore, research and teaching may be said to constitute a holy alliance but in practice, we see more of an unholy alliance. If, then, in an ideal world, a positive relationship between research and teaching is still a worthwhile goal, how might it be construed and worked for? Seeing research and teaching as two discrete and unified sets of activity is now inadequate. Much better is a construal of research and teaching as themselves complexes, as intermingling pools of activity helping to form the liquid university that is emerging today. On this view, research and teaching are fluid spaces, ever on the move, taking up new shapes, and themselves dividing and reforming, as the university reworks its own destiny in modern society. On such a perspective, working out a productive relationship between research and teaching is a complex project. This is an alliance that is neither holy nor unholy. It is an uneasy alliance, with temporary accommodations and continuous new possibilities
Resumo:
This paper deals with the problem of stabilizing a class of structures subject to an uncertain excitation due to the temporary coupling of the main system with another uncertain dynamical subsystem. A Lyapunov function based control scheme is proposed to attenuate the structural vibration. In the control design, the actuator dynamics is taken into account. The control scheme is implemented by using only feedback information of the main system. The effectiveness of the control scheme is shown for a bridge platform with crossing vehicle
Resumo:
El presente escrito realiza una interpretación alternativa, espacialmente centrada, de la violencia y el desplazamiento forzado en Colombia, desde la teoría neomarxista y la escuela de la regulación, tomando como base la influencia que tienen los intereses y estrategias, eminentemente económicos y políticos, de los actores del conflicto sobre el desplazamiento forzado. Ello, centrándose temporalmente en el período 2002-2010 y tomando como caso de estudio la franja fronteriza entre los Departamentos del Huila y el Tolima, concretamente los Municipios de Planadas y Ataco, al sur del Tolima. La hipótesis planteada establece que el desplazamiento forzado en Colombia, en tanto que fenómeno espacial complejo, tiene variadas causas y diferentes a la violencia, dentro de las que se enlistan los intereses económicos y políticos, en la consolidación del bloque hegemónico territorial. Se inicia con una presentación de los conceptos y planteamientos teóricos de los que parte el análisis, para luego hablar de la mentalidad imperante a nivel global, en términos del modo de regulación y el régimen de acumulación, así como de la malla de actores que componen el bloque hegemónico nacional, sus intereses y estrategias; y finalmente centrarse en el estudio de caso seleccionado, caracterizando los municipios e ilustrando en qué consiste el juego de intereses de los actores del bloque hegemónico local y cuál es su impacto sobre el desplazamiento forzado.
Resumo:
A medida que pasa el tiempo; la ciencia, el desarrollo tecnológico y la constante búsqueda de encontrar nuevas verdades, más fehacientes y que logren responder más asertivamente los diferentes cuestionamientos de la humanidad, han logrado redefinir las teorías y los axiomas que, en su momento, se tomaron como el dogma a seguir en diferentes disciplinas y cuestionamientos de la sociedad y la industria. La concepción tradicional que se tiene de la mente y el comportamiento del consumidor tenía vacios importantes en términos de aplicabilidad y generalización de sus teorías, pues pensar que la humanidad desarrolla sus decisiones de compra bajo análisis netamente racionales y apegados a estructuras temporales para manejar su dinero es un supuesto que no se emplea de manera general y concienzuda por el común. Antes que agentes 100% racionales, con un completo flujo de información y en un mercado perfecto bajo todos los preceptos económicos, somos personas de sentimientos y sentidos. Reaccionamos ante situaciones, estados de ánimo y estímulos, donde es nuestro cerebro quien recibe todo el contexto cognitivo que nos brinda el entorno y entonces actúa (y compra) de diferentes maneras. Es allí donde el Neuromarketing nace como un claro ejemplo de esa búsqueda por una nueva verdad. Una donde entender al consumidor no deje de lado su faceta más real; sus reacciones, pues son estas las que realmente definen qué le gusta o no y qué despierta en él un impulso lo suficientemente importante como para incidir en su decisión de compra. Es por ello que el Neuromarketing se ha adentrado a estudiar lo más profundo y verídico del consumidor, su cerebro. Alejándose de las técnicas tradicionales de investigación de mercados, donde el consumidor puede desvirtuar la información que percibe de un producto o una campaña publicitaría por diferentes razones sociales y psicológicas. El Neuromarketing se ha adentrado al estudio del consumidor y su cerebro mediante técnicas biométricas, en las cuales expone al consumidor al marketing y analiza sus reacciones cerebrales en términos de interés, adrenalina, memoria activa y sentimientos, apoyado por técnicas como el ¨eye tracking¨, donde las interacciones visuales del consumidor permiten identificar los puntos calientes y de interés en determinada pieza publicitaria. Pero el estudio, entendido por algunos como ¨invasivo¨ frente a las libertades en términos de privacidad y libertad de elección del consumidor deben ser responsablemente dirigidos y puestos bajo un contexto científico, donde el único fin sea el de generar nuevas hipótesis y teorías que permitan tener un mejor conocimiento del comportamiento del consumidor sin traspasar los límites del control del mismo. El Neuromarketing debate su existencia misma entre la creación de nuevas metodologías de acercamiento al pensamiento del consumidor, la efectividad de sus conocimiento dados a la industria y el yugo social que acarrea esta ciencia debido a la potencial coerción a los consumidores debido a sus hallazgos.
Resumo:
Estudio de caso en el análisis de la situación afrontada por la población de Papúa Occidental durante el periodo de 1962-1969, época en la que la nueva República de Indonesia y Holanda se disputaban la soberanía sobre el territorio papuano. Dicha disputa tuvo lugar durante la época de Guerra Fría, lo que llevó a que Estados Unidos junto con sus aliados en la región y la Unión Soviética intervinieran en él. Finalmente, Estados Unidos teniendo en cuenta sus intereses favoreció a la República de Indonesia y obligó a Holanda firmar el Acuerdo de Nueva York, en el que se establecía que sería la Autoridad Ejecutiva Temporal de las Naciones Unidas quien administrara y preparara el territorio para un futuro Acto de Libre Elección. En cualquiera que fuese el panorama, las Naciones Unidas no cumplieron con lo establecido en el Acuerdo lo que llevó a que fueran condescendientes con todas las peticiones indonesias sin tener en cuenta los deseos y los derechos de la población papuana, violándose su derecho de auto-determinación de los pueblos.
Resumo:
Como parte del trabajo de doctorado de la Señora Ángela Lucia Noguera Hidalgo, el presente documento reúne un compilado de las diversas fuentes relacionadas con el concepto biológico de la “competencia” y su relación con las organizaciones. Es un trabajo en donde a partir de las investigaciones ya existentes se realiza un resumen concienzudo sobre el tema, logrando de este modo un estado del arte.