960 resultados para Adorno, Theodor Wiesengrund
Resumo:
UANL
Resumo:
UANL
Resumo:
UANL
Resumo:
UANL
Resumo:
UANL
Resumo:
UANL
Resumo:
UANL
Resumo:
Ce mémoire porte sur la relation de l'œuvre de Sade à la modernité. De Sade qui, en ce qu'il ne s'est pas laissé aveugler, qu’il a su voir l'obscurité immanente aux Lumières, doit être considéré comme un voyant. Ce que d'aucuns appellent sa folie, c'est-à-dire la raison naturelle, bourgeoise par lui chantée et exacerbée, c'est un miroir tourné dans notre direction, un miroir dans lequel nos sociétés refusent de voir leur propre raison instrumentalisée, leur propre raison mise au service de l'égoïsme, de l'autoconservation. Face à ce refus, l'œuvre de Sade apparaît comme le refoulé de notre modernité. Dans un premier temps, ce mémoire examine la filiation esthétique de Sade à Baudelaire et s'attache, par l'entremise d'une étude comparative des figures du libertin et du dandy, à démontrer comment l'esthétique négative de Baudelaire présuppose la conception sadienne du mal comme intimement lié à la nature et à la raison, comment elle la transfigure de sorte que c'est seulement à partir de cette conscience dans le mal que Baudelaire en arrive à penser le bien, qu'elle constitue pour lui la seule possibilité de se réformer, de devenir à la fois humain et lucide. Il faut toujours en revenir à de Sade pour expliquer le mal, écrit Baudelaire, qui fait ainsi de Sade ou du moins de son fantôme, puisque celui-ci n'est que rarement nommé, une figure clé de la conscience dans le Mal, condition sine qua non de la modernité baudelairienne. Dans un second temps, c'est à la notion de petite souveraineté que s'intéresse ce mémoire. Souveraineté par procuration qui interdit la réelle souveraineté, elle est le produit de l'assujettissement du libertin à la nature, à la Raison, cette Raison naturelle et bourgeoise. Et l'éducation naturelle par laquelle le libertin cherche à assujettir l'Autre, lui qui ne peut posséder qu'en soumettant autrui au système auquel lui-même s'est consciemment soumis, lui le possédé-possédant, le fantôme d'homme faiseur de fantômes lui-même, est reproduction à son compte de son propre assujettissement. Cette notion de petite souveraineté s'oppose à une tradition de critiques idéalistes, qui, se méprenant sur la parenté du dandy et du libertin, héroïsant ce dernier, voient en lui un sujet libre, souverain, sans se rendre compte que sa Raison est historiquement lourde de conséquences.
Resumo:
Ce mémoire de maîtrise traite de quatre pièces de l’auteur français Bernard-Marie Koltès. Résolument axé sur l’étude du texte écrit, il vise dans un premier temps l’analyse d’un ensemble de désajustements et d’une culture de l’équivoque dans le traitement du lieu, du temps et de l’identité. Le premier but de ces analyses est l’approfondissement de certaines avenues déjà investies par la critique (marginalité des lieux et des personnages, présence constante de la violence et de la mort, etc.), dans la recherche d’une signification globale à un ensemble de pratiques textuelles liées à la notion de limite ou de frontière. Opérant un changement de perspective, la seconde partie de l’étude s’attarde à la violence ainsi qu’aux modalités et implications de sa mise en texte dans une étude croisée de l’acte créateur et de la pratique de lecture. À partir de la théorie du sacrifice élaborée par René Girard dans La violence et le sacré, et faisant dialoguer certains textes importants d’auteurs divers (Aristote, Nietzsche, Artaud, Foucault, Derrida et Adorno), l’analyse vise à inscrire la littérarité du texte koltésien dans une entreprise plus vaste ayant à voir avec la violence, sa régulation et sa diffusion. Au carrefour des études théâtrales, de la littérature et de la philosophie, cette réflexion cherche à concevoir le théâtre de Koltès (particulièrement Roberto Zucco) comme un sacrifice rituel, afin de mieux en comprendre le rapport au réel et certaines de ses particularités du point de vue du mécanisme cathartique.
Resumo:
Le thème de l’émergence de la Raison à partir du mythe est central à La dialectique de la Raison et à l’entreprise générale de l’École de Francfort. C’est que ce qui s’annonçait comme une libération par rapport à la pensée mythique et à la domination justifiée par celle-ci s’est retourné : la liberté vis-à-vis de l’arbitraire de la nature s’est payé d’un asservissement plus grand encore. Et, à son sommet, la raison a fini par replonger dans le mythe. Dans cet essai, nous proposons, en suivant Adorno, une analyse de cette «nouvelle domination» en montrant de quelle façon l’Aufklärung est venue restreindre le champ de la possibilité. Cela appelle à penser la domination non pas comme une simple imposition hétéronome, mais, plus fondamentalement, comme un étouffement du possible.
Resumo:
Energies of muonic X-rays of the K-series of carbon, nitrogen and oxygen have been measured with an accuracy of about 15 eV. Root mean square radii of the nuclear charge distributions were deduced. The results 2.49±0.05 fm for carbon, 2.55 ±0.03 fm for nitrogen and 2.71 ±0.02 fm for oxygen are in good agreement at comparable accuracy with recent electron scattering data.
Resumo:
Bei der Arbeit an sicherheitsgerichteten Kommunikationsprotokollen stellten sich immer wieder die Fragen nach der Eignung von einzelnen Mechanismen der Protokolle, um den Gefährdungen entsprechende Maßnahmen zur Beherrschung entgegenzusetzen. Dabei waren durchweg die Anforderungen der IEC 61508 mit dem Safety Integrity Level 3 zu erfüllen. Die IEC 61508-2 ist mit 5 Zeilen Umfang für die wesentlichen Anforderungen an die sicherheitsgerichtete Kommunikation sehr kurz gehalten und die IEC 61784-3 war zu Beginn der Arbeiten noch nicht veröffentlicht. Aber die IEC 61784-3 stellt auch heute nur einen unvollständigen Kriterienkatalog zusammen. Insbesondere die in IEC 61508-2 geforderte quantitative Analyse wird in der IEC 61784-3 nicht ausreichend thematisiert. In bisherigen sicherheitsgerichteten Protokollen und den relevanten Normen des Anwendungsbereichs fanden die Gefährdungspotentiale, wie Masquerading und Adressierung in offenen Übertragungssystemen, absichtliche Unterminierung der Sicherheitsmechanismen und fehlerhafte Konfiguration keine ausreichende Beachtung und die Gefährdungen durch absehbaren Missbrauch, absehbare Fehlbedienung und unberechtigter Zugriff auf sichere Kommunikationseinrichtungen wurde nur in Randgebieten diskutiert. Hier zeigt die vorliegende Arbeit die Bedeutung dieser für den Einsatz von sicherheitsgerichteten Kommunikationsprotokollen im industriellen Umfeld auf und folgert daraus die entsprechenden Maßnahmen, die in der Verantwortung des Anwenders liegen, bzw. zum Teil auch durch Protokollmechanismen beherrscht werden können. Die Arbeit stellt einen umfassenden Gefährdungskatalog auf und bewertet nach diesem Katalog die am weitest verbreiteten sicherheitsgerichteten Kommunikationsprotokolle nach einem einheitlichen Maßstab. Weiter zeigt die vorgelegte Arbeit, dass auch ein existierendes Zertifikat gemäß IEC 61508 SIL3 nicht in jedem Fall ausreichend ist, um die Eignung eines Protokolls für den Einsatz gemäß dem aktuellen Stand der Normen zu bestätigen. Hervor zu heben ist insbesondere die quantitative Bewertung jeder einzelnen Maßnahme der Protokolle. Bislang wurde diese nur für die Beherrschung von verfälschten Nachrichten durchgeführt. Die Arbeit führt diese quantitative Bewertung der eingesetzten Maßnahmen systematisch durch und zeigt dabei, dass diese Bewertung dringend erforderlich ist, da die betrachteten öffentlichen Protokolle nicht die für SIL3 notwendige Güte für alle ihre Maßnahmen aufweisen, bzw. aufwiesen. Einer der Schwerpunkte dieser Arbeit ist die Definition von Verarbeitungsmodellen für die Berechnung der maximalen Reaktionszeit und der Worst-Case Reaktionszeit. Dazu wurde ein Modell aus 5 Komponenten erstellt, dass geeignet ist, die Reaktionszeit über ein Kommunikationssystem für die im industriellen Umfeld gebräuchlichen Anwendungen zu untersuchen. Diese 5 Komponenten, das Eingangsmodul, die Sicherheitssteuerung, die Kommunikation zwischen beiden, sowie das Ausgangsmodul und die Kommunikation zwischen diesem und der Sicherheitssteuerung. Anhand dieses Modells wurde die maximale Reaktionszeit definiert. Dies ist die Zeit, die von der Änderung eines physikalischen Eingangssignals der Eingangskomponente, bis zur zugehörigen Reaktion des physikalischen Ausgangssignals der Ausgangskomponente, über die Sicherheitssteuerung hinweg, benötigt wird. Die maximale Reaktionszeit betrachtet dabei den Fall, dass im gesamten System aus diesen 5 Komponenten kein Fehler eine Wirkung entfaltet. Die Worst-Case Reaktionszeiten der Protokolle sind auf Grund der verschiedenen Konzepte sehr differenziert zu betrachten. Erschwerend kommt hier noch hinzu, dass die im konkreten System erreichte minimale Worst-Case Reaktionszeit stark von der Implementierung des jeweiligen Herstellers abhängt. Ebenso problematisch ist die unterschiedliche Modellbildung der jeweiligen Protokoll-Organisationen. Es werden Fehlerausschlüsse gemacht, wie die Annahme, dass nur ein Fehler auftritt und dieser Fehler sich nicht auf die Verbindung zwischen Eingangsmodul und Sicherheitssteuerung und auf die Verbindung zwischen Sicherheitssteuerung und Ausgangsmodul gleichzeitig auswirken kann. Da für den sicherheitsgerichteten Einsatz die maximale Reaktionszeit mit Fehlern die relevante Betrachtungseinheit darstellt, wurden anhand des Modells die Worst-Case 1 und 2 Reaktionszeiten definiert. Die erste definiert die Zeit die eine Reaktion maximal benötigt, wenn im Kommunikationssystem eine Fehlerwirkung vorliegt und bei der zweiten wird angenommen, dass mehrere der 5 Komponenten von Fehlerwirkungen betroffen sein können. Um einen vertieften Einblick in die Thematik zu erhalten, wurde im Rahmen dieser Arbeit ein eigenes sicherheitsgerichtetes Kommunikationsprotokoll spezifiziert, entworfen und realisiert. Hierbei wurde besonderer Augenmerk auf die Wirksamkeit des Verfälschungsschutzes mittels CRCs für kurze Nachrichten gelegt und ebenso die Wirksamkeit gekoppelter CRCs betrachtet.
Resumo:
Regionale Arbeitsmärkte unterscheiden sich erheblich hinsichtlich wesentlicher Kennzahlen wie der Arbeitslosenquote, des Lohnniveaus oder der Beschäftigungsentwicklung. Wegen ihrer Persistenz sind diese Unterschiede von hoher Relevanz für die Politik. Die wirtschaftswissenschaftliche Literatur liefert bereits theoretische Modelle für die Analyse regionaler Arbeitsmärkte. In der Regel sind diese Modelle aber nicht dazu geeignet, regionale Arbeitsmarktunterschiede endogen zu erklären. Das bedeutet, dass sich die Unterschiede regionaler Arbeitsmärkte in der Regel nicht aus den Modellzusammenhängen selbst ergeben, sondern „von außen“ eingebracht werden müssen. Die empirische Literatur liefert Hinweise, dass die Unterschiede zwischen regionalen Arbeitsmärkten auf die Höhe der regionalen Arbeitsnachfrage zurückzuführen sind. Die Arbeitsnachfrage wiederum leitet sich aus den Gütermärkten ab: Es hängt von der Entwicklung der regionalen Gütermärkte ab, wie viele Arbeitskräfte benötigt werden. Daraus folgt, dass die Ursachen für Unterschiede regionaler Arbeitsmärkte in den Unterschieden zwischen den regionalen Gütermärkten zu suchen sind. Letztere werden durch die Literatur zur Neuen Ökonomischen Geographie (NÖG) untersucht. Die Literatur zur NÖG erklärt Unterschiede regionaler Gütermärkte, indem sie zentripetale und zentrifugale Kräfte gegenüberstellt. Zentripetale Kräfte sind solche, welche hin zur Agglomeration ökonomischer Aktivität wirken. Im Zentrum dieser Diskussion steht vor allem das Marktpotenzial: Unternehmen siedeln sich bevorzugt an solchen Standorten an, welche nahe an großen Märkten liegen. Erwerbspersonen wiederum bevorzugen solche Regionen, welche ihnen entsprechende Erwerbsaussichten bieten. Beides zusammen bildet einen sich selbst verstärkenden Prozess, der zur Agglomeration ökonomischer Aktivität führt. Dem stehen jedoch zentrifugale Kräfte gegenüber, welche eine gleichmäßigere Verteilung ökonomischer Aktivität bewirken. Diese entstehen beispielsweise durch immobile Produktionsfaktoren oder Ballungskosten wie etwa Umweltverschmutzung, Staus oder hohe Mietpreise. Sind die zentripetalen Kräfte hinreichend stark, so bilden sich Zentren heraus, in denen sich die ökonomische Aktivität konzentriert, während die Peripherie ausdünnt. In welchem Ausmaß dies geschieht, hängt von dem Verhältnis beider Kräfte ab. Üblicherweise konzentriert sich die Literatur zur NÖG auf Unterschiede zwischen regionalen Gütermärkten und geht von der Annahme perfekter Arbeitsmärkte ohne Arbeitslosigkeit aus. Die Entstehung und Persistenz regionaler Arbeitsmarktunterschiede kann die NÖG daher üblicherweise nicht erklären. An dieser Stelle setzt die Dissertation an. Sie erweitert die NÖG um Friktionen auf dem Arbeitsmarkt, um die Entstehung und Persistenz regionaler Arbeitsmarktunterschiede zu erklären. Sie greift dazu auf eine empirische Regelmäßigkeit zurück: Zahlreiche Studien belegen einen negativen Zusammenhang zwischen Lohn und Arbeitslosigkeit. In Regionen, in denen die Arbeitslosigkeit hoch ist, ist das Lohnniveau gering und umgekehrt. Dieser Zusammenhang wird als Lohnkurve bezeichnet. Auf regionaler Ebene lässt sich die Lohnkurve mithilfe der Effizienzlohntheorie erklären, die als theoretische Grundlage in der Dissertation Anwendung findet. Konzentriert sich nun die ökonomische Aktivität aufgrund der zentripetalen Kräfte in einer Region, so ist in diesem Zentrum die Arbeitsnachfrage höher. Damit befindet sich das Zentrum auf einer günstigen Position der Lohnkurve mit geringer Arbeitslosigkeit und hohem Lohnniveau. Umgekehrt findet sich die Peripherie auf einer ungünstigen Position mit hoher Arbeitslosigkeit und geringem Lohnniveau wieder. Allerdings kann sich die Lohnkurve in Abhängigkeit des Agglomerationsgrades verschieben. Das komplexe Zusammenspiel der endogenen Agglomeration mit den Arbeitsmarktfriktionen kann dann unterschiedliche Muster regionaler Arbeitsmarktdisparitäten hervorrufen. Die Dissertation zeigt auf, wie im Zusammenspiel der NÖG mit Effizienzlöhnen regionale Arbeitsmarktdisparitäten hervorgerufen werden. Es werden theoretische Modelle formuliert, die diese Interaktionen erklären und welche die bestehende Literatur durch spezifische Beiträge erweitern. Darüber hinaus werden die zentralen Argumente der Theorie einem empirischen Test unterworfen. Es kann gezeigt werden, dass das zentrale Argument – der positive Effekt des Marktpotentials auf die Arbeitsnachfrage – relevant ist. Außerdem werden Politikimplikationen abgeleitet und der weitere Forschungsbedarf aufgezeigt.
Resumo:
Zusammenfassung: Ziel der Arbeit ist den Sinn von Schauder philosophisch zu erhellen. An einem Einzelphänomen, wie es so bisher nicht behandelt wurde, wird zugleich das Geflecht von Affekt/Emotion/Gefühl, gestützt auf Hegel, Heidegger, Husserl, Freud und Lacan, in immer neuen Ansätzen kritisch reflektiert und Zug um Zug mit Derrida dekonstruiert. In einem Textverfahren, das sich auch grafisch durch gegenübergestellte Kolumnen auszeichnet, werden heterogene Ansätze zum Sinn von Schauder mit dekonstruktivistischen Einsichten konfrontiert. Die Ansätze, Schauder über Datum, Begriff, Phänomen oder Strukturelement bestimmen zu wollen, durchdringen sich dabei mit denjenigen, die sich einer solchen Bestimmung entziehen (Hegels Negativität, Heideggers Seinsentzug oder Lacans Signifikantenmangel). Am Fokus Schauder, an dem sich das Fiktive einer mit sich selbst identischen Präsenz besonders eindringlich darstellt, werden so spezifische Aporien der Metaphysik der Präsenz entfaltet und die Geschlossenheit logozentristischer Systeme in die Bewegung einer anderen Öffnung und Schließung im Sinn der Schrift bzw. des allgemeinen Textes transformiert. Neben der différance, dem Entzug der Metapher, dem Supplement und dem Gespenstischen stützt sich die Arbeit auf die Iterabilität, bei der im selben Zug die Identität des Sinns gestiftet und zerstreut wird (Dissemination). Im Kapitel Piloerection werden Ambivalenzen und Paradoxien des Schauders am Beispiel von computergestützten empirisch-psychologischen Studien aufgezeigt. Im Kapitel Atopologie des Schauders prädikative, propositionale und topologische Bedingungen zum Sinn von Schauder analysiert und dekonstruiert. Ebenso, im Folgekapitel Etymon, etymologische und technisch-mediale Bedingungen. Im Schlußkapitel Maß, Anmaß, Unmaß der Empfindung des Schauders wird am Beispiel der konkreten Beiträge zum Schauder von Aristoteles, Kant, Fechner, Otto, Klages, Lorenz und Adorno aufgezeigt, dass (1) ein Schauder nicht von einem Außen aus an-gemessen werden kann, (2) sich im Schauder die metaphysische Opposition von Fiktion und Realität in einer Unentscheidbarkeit zerstreut, (3) dass trotz der Heterogenität der Ansätze in diesen Beiträgen eine Komplizenschaft zum Ausdruck kommt: ein Begehren nach Präsenz, das durch den Ausschluß des Anderen zugleich die Gewalt des Einen produziert, (4) dass der Signifikant Schauder, der selbst in Abwesenheit eines Referenten, eines bestimmten Signifikats, einer aktuellen Bedeutungsintention, eines Senders oder Empfängers funktioniert, als verändertes Zurückbleiben eines differenzieller Zeichens betrachtet werden muss, als Effekt von Spuren, die sich nur in ihrem eigenen Auslöschen ereignen. Die Arbeit schließt mit dem Vorschlag, Spüren jenseits von Arché, Telos oder Eschaton, jenseits eines Phallogozentrismus in der derridaschen Spur zu denken. Nicht zuletzt über diese Pfropfung, wie sie im Französischen [trace] so nicht möglich ist, schließt sie als deutschsprachiger Beitrag an sein Werk an.
Resumo:
Resumen tomado del autor. Esta comunicaci??n se enmarca dentro del proyecto de investigaci??n 'Educaci??n y socializaci??n en valores : aproximaci??n al an??lisis cualitativo de la evoluci??n de los valores presentes en las pr??cticas educativas y socializadoras vigentes dentro y fuera de la escuela desde la II Rep??blica espa??ola hasta la actualidad en la Comunitat Valenciana (1931-2004)', financiado por la Conselleria de Cultura, Educaci?? i Esport de la Generalitat Valenciana