921 resultados para Psychotherapy relationships that work
Resumo:
Los estudios de esta tesis doctoral muestran la relación estrecha que existe en la Fenomenología del Espíritu entre el concepto hegeliano de experiencia, su concepción del absoluto y el impacto que tiene en ambos el desafío del escepticismo. La tesis general sostenida es que la confrontación de Hegel con el escepticismo es la clave de lectura más importante para la comprensión de la Introducción a la Fenomenología y por lo tanto del programa original de la obra. Más específicamente, se sostiene que la Introducción a la Fenomenología del Espíritu se encuentra filosóficamente constituida en atenta referencia a las objeciones que Gottlob Schulze había dirigido al incipiente idealismo de Jena en sus escritos de 1803 (Aforismos sobre lo Absoluto) y de 1805 (Los momentos principales del modo escéptico de pensar acerca del conocimiento humano). Se afirma aquí que Hegel revalorizó el escepticismo de Schulze, a tal punto que: a) los desafíos de Schulze son la principal provocación para un cambio de rumbo en los planes filosóficos de Hegel, esto es, el de comenzar por el problema del conocimiento antes de presentar su Lógica; b) las objeciones de Schulze constituyen los motivos decisivos que generan la ruptura entre Schelling y Hegel; c) a raíz de tales objeciones, Hegel relativiza en la Fenomenología la distinción tajante que había establecido entre antiguo y nuevo escepticismo en su escrito de 1802 (Relación del escepticismo con la filosofía); d) Hegel no sólo considera las objeciones del escéptico sino que se apropia y reformula algunas de sus ideas.En síntesis: los estudios que se exponen en esta tesis reconstruyen una polémica entre Hegel y Schulze. Esta reconstrucción puede aclarar la teoría de la experiencia que se encuentra en el texto de la Introducción a la Fenomenología.En cuanto al orden de la exposición, este trabajo doctoral comienza con una presentación de la concepción de Kant acerca de la experiencia, del límite del conocimiento humano y del absoluto, tal como aparecen en la Crítica de la Razón Pura, mostrando cómo ya en aquella obra el escepticismo juega un rol determinante (capítulo 1). A continuación, se exponen las ideas y los argumentos fundamentales del escrito hegeliano de 1802 sobre el escepticismo (capítulo 2). En el tercer capítulo se muestra la incertidumbre que tuvieron los lectores académicos, entre ellos Schulze, acerca de la autoría de la Revista Crítica de Filosofía, la cual era editada por Schelling y Hegel sin especificar la autoría de cada artículo, y en la que había sido publicado el escrito de Hegel. A esta situación se debe -según la presente tesis- que Schulze haya dirigido sus críticas a Schelling y no a Hegel. En los capítulos cuarto y quinto se exponen las tesis fundamentales que Schulze sostiene en los escritos mencionados de 1803 y 1805. El capítulo central, el sexto, consiste en un comentario de toda la Introducción a la Fenomenología a la luz del debate velado con Schulze y en atención particular al concepto hegeliano de experiencia. El último capítulo examina a grandes rasgos, a partir de lo demostrado, la concepción de Hegel sobre el escepticismo y sobre el concepto de experiencia en el resto de la Fenomenología del Espíritu. Se distingue un escepticismo estructural, que forma parte de la dinámica de la experiencia, de un escepticismo histórico que constituye una figura puntual del itinerario de la experiencia que hace la conciencia. En el mismo capítulo se considera el destino que tuvo el concepto de experiencia en el resto de la obra de Hegel y se concluye que sigue de cerca el destino de la Fenomenología y se indagan los motivos. También se examina sucintamente el papel del escepticismo en la Ciencia de la Lógica y en las Lecciones de Historia de la Filosofía. En las Conclusiones Finales de este trabajo doctoral se retoman en forma comparada y sintética las concepciones de Kant, de Schulze y de Hegel acerca de la experiencia, el límite, el absoluto y la libertad.
Resumo:
El artículo analiza la figura de escritor de Roberto Bolaño (1953-2003), a partir de su surgimiento en los medios literarios, en función de lo que el discurso de la crítica cataloga y aborda en diferentes momentos en cuanto a la evolución del autor y de su obra. Lo que planteamos averiguar es lo que sucede con el caso "Bolaño", cuya contemplación supone atender la situación particular de una figura paradigmática que construye una subjetividad notable evocada en su obra como una articulación esencial para la afirmación del individuo que escribe, quien se sustrae de los tradicionales ideales estético-literarios que funcionan para otros autores latinoamericanos contemporáneos.
Resumo:
En las últimas décadas, el mundo del trabajo se ha modificado drásticamente. Considerando que dichos cambios no sólo modificaron las estrategias materiales de vida de los trabajadores, sino también sus valoraciones y percepciones con respecto al trabajo y a sí mismos, en este estudio pretendemos indagar sobre la forma en que los sujetos enfrentaron tales fenómenos y las consecuencias que los mismos produjeron en sus subjetividades. Presentamos aquí un estudio de caso que se propone describir y analizar las trayectorias laborales, a lo largo de los últimos quince años, de los ex trabajadores de la empresa O.F.A., una mediana fábrica metalúrgica del Gran La Plata que cerró por quiebra en el año 1993. Dados los objetivos de investigación, hemos adoptado una perspectiva metodológica cualitativa utilizando el concepto de trayectoria laboral, que intenta poner de manifiesto la relación dinámica que se establece entre las condiciones estructurales y las estrategias que ponen en juego los sujetos. En primer lugar, planteamos la descripción de las trayectorias laborales analizadas, dando cuenta del trabajo en la empresa, las búsquedas laborales emprendidas y las inserciones laborales actuales. En segundo lugar, nos centramos en el análisis de las valoraciones y percepciones que tienen los trabajadores con respecto al trabajo pasado, al actual y a las transformaciones ocurridas a lo largo de sus trayectorias. Finalmente señalamos los principales resultados, concluyendo que a pesar de producirse el quiebre de las trayectorias, el trabajo sigue siendo un eje identitario estructurante en la vida de los trabajadores estudiados
Resumo:
Las agroindustrias se presentan como uno de los sectores más dinámicos para el crecimiento del Producto Bruto y del volumen de la mano de obra de la provincia de Corrientes en la argentina. Para nuestro objetivo, entre todas las agroindustrias que funcionan en esa provincia hemos escogido los establecimientos dedicados al cultivo y secado (fase preindustrial) del arroz, en tanto se trata de una actividad propia cuyo impacto trasciende la fase primaria, dado el alto grado de integración vertical de dicha actividad. El objetivo de la investigación que da origen a este estudio es conocer, en sentido amplio, una de las dimensiones de la productividad en el sector: la estructura productiva y del empleo en el sector primario del caI, por cuanto entendemos que la misma constituye un elemento fundamental en los niveles de productividad alcanzados por los heterogéneos integrantes del Complejo agroindustrial
Resumo:
Se presenta un panorama y los interrogantes fundamentales de la etapa de la Web 3.0. Se analizan las características actuales de los sistemas bibliográficos estructurados con el modelo entidad-relación. Se definen los niveles conceptual, lógico y físico en los sistemas informáticos; consecuentemente se presentan las características de los FRBR y se obervan las relaciones entre obra y documento en el modelo conceptual FRBR. Se describen los FRBRoo como una interpretación con una lógica de objetos de los mismos requerimientos funcionales. Finalmente se plantean las tendencias a futuro, tales como pasar de las modelizaciones de entidad-relación a la de objetos, la explicitación con anotación semántica consistente, el mapeo de bases bibliográficas existentes y el desarrollo de ontologías para que los sistemas documentales se integren en la Web Semática
Resumo:
The glaucophane schists of Oscar II Land, it has been suggested, originated in a compressive plate boundary subduction zone environment. An alternative hypothesis is presented here linking the metamorphism of these schists with that of the surrounding pre-Carboniferous rocks. It has been estimated from mineralogical and textural relationships that at the time of metamorphism these rocks exceeded 30 km in thickness. Similarly, an ambient geothermal gradient of 15° C/km has been calculated for the now exposed succession. Pressures of sufficient magnitude would be realised near the base of this geosynclinal pile to produce eclogite from rocks of basic composition. Subsequent synmetamorphic penetrative deformation would give rise to glaucophane and greenschist facies assemblages.
Resumo:
Based on information derived from six villages in various parts of rural Malawi, this paper examines the interrelationship between smallholder strategies to obtain land on the one hand, and customary land tenure and inheritance rules on the other. The paper revealed that although the majority of land transactions followed customary land tenure systems and inheritance rules, in a good number of cases land transactions deviated from the basic rules. One factor behind such deviation was the unique personal relationships that were developed between original landholders and heirs. Another factor was the seemingly increasing cases of returning wives in patrilineal villages. Still another factor was the intensifying land scarcity that encouraged villagers to adopt strategies to obtain land from any source by any means. On the other hand, there were also some cases in which the same land-scarcity problem induced villagers to countercheck the practice of flexible land transfer to prevent their lineage land from being alienated to non-kin members. These facts suggest that, in a land scarce situation, an individual strategy to obtain land rights from any possible sources by deviating from customary rules may occasionally be in conflict with a lineage strategy to countercheck such tendency.
Resumo:
This paper explores the process of creation of the netbook market by Taiwanese firms as an example of a disruptive innovation by latecomer firms. As an analytical framework, I employ the global value chain perspective to capture the dynamics of vertical inter-firm relationships that drive some firms in the chain to change the status quo of the industry. I then divide the process of the emergence of the netbook market into three consecutive stages, i.e. (1) the launch of the first-generation netbook by a Taiwanese firm named ASUSTeK, (2) the response of the two powerful platform leaders of the industry, Intel and Microsoft Intel, to ASUSTeK’s innovation, and (3) the market entry by another powerful Taiwanese firm, Acer, and explain how Taiwanese firms broke the Intel-centric market and tapped into the market-creating innovation opportunities that had been suppressed by the two powerful platform leaders. I also show that the creation of the netbook industry was an evolutionary process in which a series of responses by different industry players led to changes in the status quo of the industry.
Resumo:
La tierra ha sido utilizada como material de construcción desde hace siglos. No obstante, la normativa al respecto está muy dispersa, y en la mayoría de países desarrollados surgen numerosos problemas técnicos y legales para llevar a cabo una construcción con este material. Este artículo estudia el panorama normativo para las construcciones con tierra cruda a nivel internacional, analizando cincuenta y cinco normas y reglamentos de países repartidos por los cinco continentes, que representan el estado del arte de la normalización de la tierra cruda como material de construcción. Es un estudio referenciado sobre las normas y reglamentos vigentes desarrollados por los organismos nacionales de normalización o autoridades correspondientes. Se presentan las normativas y los organismos que las emiten, analizando la estructura y contenido de cada una. Se estudian y analizan los aspectos más relevantes, como la estabilización, selección de los suelos, requisitos de los productos y ensayos existentes, comparando las diferentes normativas. Este trabajo puede ser de gran utilidad para el desarrollo de futuras normas y como referencia para arquitectos e ingenieros que trabajen con tierra. For centuries, earth has been used as a construction material. Nevertheless, the normative in this matter is very scattered, and in the most developed countries, carrying out a construction with this material implies a variety of technical and legal problems. This article analyzes, in an international level, the normative panorama about constructions with earth, analyzing fifty five standards and regulations of countries all around the five continents; these represent the state of art that normalizes the earth as a construction material. It is a study indexed on the actual procedures and regulations developed by the national organisms of normalization or correspondent authorities. The standards and the organisms that produce them appear, analyzing the structure and the content of each one. We have studied and analyzed the most relevant aspects, such as stabilization, soil selections, the requisites of the products and the existent test, comparing the diverse normative. The knowledge from this study could be very useful for the development of future standards and as a reference for architects and engineers that work with earth.
Resumo:
We present a novel framework for encoding latency analysis of arbitrary multiview video coding prediction structures. This framework avoids the need to consider an specific encoder architecture for encoding latency analysis by assuming an unlimited processing capacity on the multiview encoder. Under this assumption, only the influence of the prediction structure and the processing times have to be considered, and the encoding latency is solved systematically by means of a graph model. The results obtained with this model are valid for a multiview encoder with sufficient processing capacity and serve as a lower bound otherwise. Furthermore, with the objective of low latency encoder design with low penalty on rate-distortion performance, the graph model allows us to identify the prediction relationships that add higher encoding latency to the encoder. Experimental results for JMVM prediction structures illustrate how low latency prediction structures with a low rate-distortion penalty can be derived in a systematic manner using the new model.
Resumo:
Systems of Systems (SoS) present challenging features and existing tools result often inadequate for their analysis, especially for heteregeneous networked infrastructures. Most accident scenarios in networked systems cannot be addressed by a simplistic black or white (i.e. functioning or failed) approach. Slow deviations from nominal operation conditions may cause degraded behaviours that suddenly end up into unexpected malfunctioning, with large portions of the network affected. In this paper,we present a language for modelling networked SoS. The language makes it possible to represent interdependencies of various natures, e.g. technical, organizational and human. The representation of interdependencies is based on control relationships that exchange physical quantities and related information. The language also makes it possible the identification of accident scenarios, by representing the propagation of failure events throughout the network. The results can be used for assessing the effectiveness of those mechanisms and measures that contribute to the overall resilience, both in qualitative and quantitative terms. The presented modelling methodology is general enough to be applied in combination with already existing system analysis techniques, such as risk assessment, dependability and performance evaluation
Resumo:
Well, I firmly believe that, as a professor, one has the duty, the obligation to show and explain his work. Not, of course, as a model to imitate, but rather as an opportunity to reflect upon that work. So, I will try to explain some of the considerations that were crucial in the development of each project. It is my hope that these reflections may be of interest to you, and due to my optimistic nature, that you may even enjoy it. Today I am going to present some projects, from a specific point of view: that of MATERIALITY. This is why I decided to title this presentation ARCHITEXTURE: that is, architecture from the point of view of texture, the quality of its material. Our architecture wants to pay attention to materials; we like to use very physical materials. We try to explore the expressive possibilities of different materials. That allows us, on the one hand, to try to master different techniques, and exploit their potential. On the other hand, it also avoids the dangers of style. Style is the death of an architect. When he starts repeating formulas, avoiding experimentation, copying himself, he dies of boredom, of intellectual boredom. Nevertheless, I don’t believe that the material itself determines anything. Architecture is an exercise of the freedom of an architect. Almost nothing is a given. Of course, there is the law of gravity and economic restraints, and even the overwhelming building code. But the most determinant factor is always the freedom of the architect, derived from his mastery of knowledge and culture, and his decision to innovate and to take risks
Resumo:
The design of an electrodynamic tether is a complex task that involves the control of dynamic instabilities, optimization of the generated power (or the descent time in deorbiting missions), and minimization of the tether mass. The electrodynamic forces on an electrodynamic tether are responsible for variations in the mechanical energy of the tethered system and can also drive the system to dynamic instability. Energy sources and sinks in this system include the following: 1) ionospheric impedance, 2) the potential drop at the cathodic contactor, 3) ohmic losses in the tether, 4) the corotational plasma electric field, and 5) generated power and/or 6) input power. The analysis of each of these energy components, or bricks, establishes parameters that are useful tools for tether design. In this study, the nondimensional parameters that govern the orbital energy variation, dynamic instability, and power generation were characterized, and their mutual interdependence was established. A space-debris mitigation mission was taken as an example of this approach for the assessment of tether performance. Numerical simulations using a dumbbell model for tether dynamics, the International Geomagnetic Reference Field for the geomagnetic field, and the International Reference Ionosphere for the ionosphere were performed to test the analytical approach. The results obtained herein stress the close relationships that exist among the velocity of descent, dynamic stability, and generated power. An optimal tether design requires a detailed tradeoff among these performances in a real-world scenario.
Resumo:
Very recently (Banerjee et al. in Astrophys. Space, doi:1007/s10509-011-0836-1, 2011) the statistics of geomagnetic Disturbance storm (Dst) index have been addressed, and the conclusion from this analysis suggests that the underlying dynamical process can be modeled as a fractional Brownian motion with persistent long-range correlations. In this comment we expose several misconceptions and flaws in the statistical analysis of that work. On the basis of these arguments, the former conclusion should be revisited.
Resumo:
High efficiency envelope amplifiers are demanded in EER technique for RF transmitters, which benefits low maintaining cost or long battery time. The conventional solution is a dc-dc switching converters. This dc-dc converter should operate at very high frequency to track an envelope in the MHz range to supply the power amplifier. One of the alternative circuits suitable for this application is a hybrid topology composed of a switched converter and a linear regulator in series that work together to adjust the output voltage to track the envelope with accuracy. This topology can take advantage of the reduced slew-rate technique (also called slow-envelope technique) where switching dc-dc converter provides the RF envelope with limited slew rate in order to avoid high switching frequency and high power losses, while the linear regulator performs fine adjustment in order to obtain the exact replica of the RF envelope. The combination of this control technique with this topology is proposed in this paper. Envelopes with different bandwidth will be considered to optimize the efficiency of the dc-dc converter.