888 resultados para Virada pragmática


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artículo presenta una discusión sobre algunas nociones que emplea la sintaxis actual del griego clásico. En primer lugar, expone el ámbito que ocupa la sintaxis en el marco de la lingüística y la filología. En segundo y tercer lugar, expone el concepto de enunciado y de sintagma aplicados a la sintaxis del griego clásico. En cuarto lugar, expone brevemente algunos criterios distribucionales empleados para identificar las funciones desempeñadas por los complementos en la oración. A continuación, se exponen los conceptos de papel semántico, noción relacional, función semántica, función sintáctica y función pragmática. La sección 7 resume la estructura de la oración y defiende la idea de que hay que distinguir una serie de niveles o capas en los que se alojan los complementos. El parágrafo final contiene una breve conclusión. El artículo se cierra con una lista de libros sobre sintaxis griega publicados desde 1991 hasta 2003.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los estudios existentes sobre la Modalización (Kerbrat Orecchioni/Benveniste) se analizan ciertos adverbios (i.e: francamente) como portadores de actitud o evaluación del hablante respecto de un contenido proposicional proferido. En el presente trabajo, exploramos estos llamados "adverbios modalizadores" desde una perspectiva cognitiva que permite explicar los procesos interpretativos que se activan en la compresión de enunciados que contienen este tipo de ítems léxicos. Este enfoque nos permitiría dar cuenta de la existencia y el funcionamiento de adverbios de tres tipos: oracionales (cuyo alcance comprende únicamente al sintagma verbal), extra-oracionales (con alcance sobre todo el contenido proposicional) y de aquellos que presentan distribución doble

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tabla de contenidos: La pregunta por los límites de la ciencia / Alfredo Marcos. Creencia pragmática. Justificación y valores epistémicos según el pragmatismo clásico / Evelyn Vargas. El problema de la reflexividad de los estudios de la ciencia: una perspectiva deweyana / Federico E. López. Enseñanza de las ciencias naturales: de los productos a las prácticas / Hernán Miguel. Experiencia e Inteligencia: la relación medios-fines en la filosofía de la educación de John Dewey / Horacio Héctor Mercau. El boicot a Elsevier y sus implicaciones respecto del acceso a las publicaciones científicas / Miguel Fuentes. Hacia una filosofía política del conocimiento científico / Ricardo J. Gómez. Dimensiones colectivas del conocimiento en la Modernidad / Silvia Manzo. Filosofía del conocimiento y racionalidad: Lacey vs. Douglas en torno al ideal de ciencia libre de valores / Victoria Paz Sánchez García. Compreensao e Significado / Wagner de Campos Sanz. O significado do Autoconhecimento e Racionalidade / Waldomiro J. Silva Filho. Conocimiento simbólico de Leibniz a Husserl / Jairo J. da Silva, Abel Lassalle Casanave, Javier Legris.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El trabajo discute el papel del lenguaje en la tradición de la filosofía trascendental. En la primera parte, se muestra ante todo el carácter a-lingüístico de las categorías del pensamiento en la filosofía kantiana; se señalan luego las dificultades teóricas a las que conduce el carácter dualista de esta posición reflexiva y se reconstruye finalmente la solución de Fichte a estas aporías. En la segunda parte, se aborda y se discute la transformación de la filosofía kantiana propuesta por la pragmática trascendental centrándose, ante todo, en el carácter lingüístico de las categorías del conocimiento válido. Se intenta mostrar los riesgos teóricos de absolutizar el papel del lenguaje en el proceso cognoscitivo y se propone, a modo de conclusión, una distinción entre teoría del conocimiento kantiana y fundamentación fichteana del conocimiento

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se buscará indagar en los aspectos epistemológicos que se han introducido en la terapia familiar sistémica. Cambios que se produjeron a partir de las nuevas conceptualizaciones, provenientes de lo que se ha denominado 'cibernética de segundo orden'. Este novedoso paradigma ha resultado grávido en consecuencias en la dinámica terapéutica especifica de esta modalidad de intervención. La 'cibernética de segundo orden', también conocida como 'cibernética de la cibernética' o 'cibernética de los sistemas observantes', parte de supuestos epistemológicos que posibilitan la visualización de la situación terapéutica como una constelación compleja en el cual el terapeuta, el grupo terapéutico y la familia en cuestión conforman un todo entramado e imbricado en una situación multideterminada. En contraposición con la 'cibernética de primer orden', que todavía considera alterapeuta como disociado de aquello que esta observando. Se tratarán las implicancias terapéuticas del cambio de paradigma, en tanto correlato de los supuestos epistemológicos que lo sustentan, en contraposición al anterior. Resulta de vital interés explicitar los supuestos epistemológicos de una terapia que, desde sus albores, ha resultado un intento de praxis de un programa epistemológico mayor. La mayor relevancia de la aplicación de la 'cibernética de segundo orden' se ha dado en la corriente estructuralista de la terapia familiar sistémica. Es por esto, que nos centraremos en esta perspectiva, aunque el impacto del nuevo paradigma proveniente de la cibernética ha calado también en las terapias de corte estratégico. La nueva cosmovisión, de fuerte poder heurístico, se ha diseminado por toda la terapia familiar sistémica; Pero los objetivos y la dinámica de cura de la escuela estructuralista, cuyo mayor referente es el argentino Salvador Minuchin, se han adaptado en pos de unmejor aprovechamiento de esta nueva forma de ver la terapia. Es así que el presente trabajo se centrará, sucintamente, en los aportes del nuevo paradigma cibernético aplicado a la terapia familiar sistémica de corte estructuralista. Permitiendo un recorrido por la terapéutica que se desprende de la 'cibernética de segundo orden'. Se acentuará la perspectiva ecológica que da cuenta de la particular inserción del sujeto convaleciente en la trama familiar en la que está, inevitablemente, inmerso. Vemos la originalidad de dicha pespectiva, que enmarca el trabajo de la clínica psicológica como el correlato de la forma de concebir la realidad (ontología) y la forma de acceder mediante una racionalidad crítica y científica a dicha construcción que llamamos 'realidad' (epistemología). Desarrollos de lo más actuales que surjen como el intento de ruptura con la lógica de disciplinas aisladas y parcelarias en busca de una comprensión holística de la realidad. He aquí o que se ha denominado 'ecología' u 'epistemología relacional'. En la vertiente que se analizará en el presente trabajo la aplicación pragmática de dicha perspectiva decantará en una visión compleja de la sinterrelaciones familiiares, no habrá bajo ningún punto de vista, una causalidad lineal en forma de un determinismo causa- efecto, sino que la trama deberá ser develada en toda su complejidad. Esto implica un sostenimiento constante de todas las variables intervinientes tratando de no caer en reduccionismos que derivan en panaceas inservibles

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El Consejo de Europa ha elaborado unas directrices en materia lingüística para todos los países de la UE, que se encuentran en el Common European Framework of Reference for Languages CEFRL (2001) y permiten la equiparación de los niveles de competencia comunicativa de los distintos programas y asignaturas de L2. Inmersos en el proceso de convergencia europea de la educación superior, esta comunicación comenzará explicando los criterios y fases para el desarrollo de un PEL (Portafolio Europeo de Lenguas), en el contexto científico y técnico, por parte del grupo de investigación DISCYT de la UPM. Presentará un resumen de las destrezas comunicativas, las situaciones de aprendizaje y uso de la lengua, y los tipos de texto que nuestros alumnos necesitan para desenvolverse en su entorno académico y profesional y facilitar la movilidad. La elaboración del PEL académico y profesional (ACPEL Portfolio) ha obteniendo como resultados la profundización en el análisis del discurso científico y técnico desde la lingüística cognitiva y la socio-pragmática, la actualización de las necesidades de aprendizaje de lenguas de los estudiantes de la UPM dentro del al Espacio Europeo de Educación Superior (EEES), y la capacitación de los alumnos para autoevaluar su progreso de aprendizaje de lenguas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The twentieth century brought a new sensibility characterized by the discredit of cartesian rationality and the weakening of universal truths, related with aesthetic values as order, proportion and harmony. In the middle of the century, theorists such as Theodor Adorno, Rudolf Arnheim and Anton Ehrenzweig warned about the transformation developed by the artistic field. Contemporary aesthetics seemed to have a new goal: to deny the idea of art as an organized, finished and coherent structure. The order had lost its privileged position. Disorder, probability, arbitrariness, accidentality, randomness, chaos, fragmentation, indeterminacy... Gradually new terms were coined by aesthetic criticism to explain what had been happening since the beginning of the century. The first essays on the matter sought to provide new interpretative models based on, among other arguments, the phenomenology of perception, the recent discoveries of quantum mechanics, the deeper layers of the psyche or the information theories. Overall, were worthy attempts to give theoretical content to a situation as obvious as devoid of founding charter. Finally, in 1962, Umberto Eco brought together all this efforts by proposing a single theoretical frame in his book Opera Aperta. According to his point of view, all of the aesthetic production of twentieth century had a characteristic in common: its capacity to express multiplicity. For this reason, he considered that the nature of contemporary art was, above all, ambiguous. The aim of this research is to clarify the consequences of the incorporation of ambiguity in architectural theoretical discourse. We should start making an accurate analysis of this concept. However, this task is quite difficult because ambiguity does not allow itself to be clearly defined. This concept has the disadvantage that its signifier is as imprecise as its signified. In addition, the negative connotations that ambiguity still has outside the aesthetic field, stigmatizes this term and makes its use problematic. Another problem of ambiguity is that the contemporary subject is able to locate it in all situations. This means that in addition to distinguish ambiguity in contemporary productions, so does in works belonging to remote ages and styles. For that reason, it could be said that everything is ambiguous. And that’s correct, because somehow ambiguity is present in any creation of the imperfect human being. However, as Eco, Arnheim and Ehrenzweig pointed out, there are two major differences between current and past contexts. One affects the subject and the other the object. First, it’s the contemporary subject, and no other, who has acquired the ability to value and assimilate ambiguity. Secondly, ambiguity was an unexpected aesthetic result in former periods, while in contemporary object it has been codified and is deliberately present. In any case, as Eco did, we consider appropriate the use of the term ambiguity to refer to the contemporary aesthetic field. Any other term with more specific meaning would only show partial and limited aspects of a situation quite complex and difficult to diagnose. Opposed to what normally might be expected, in this case ambiguity is the term that fits better due to its particular lack of specificity. In fact, this lack of specificity is what allows to assign a dynamic condition to the idea of ambiguity that in other terms would hardly be operative. Thus, instead of trying to define the idea of ambiguity, we will analyze how it has evolved and its consequences in architectural discipline. Instead of trying to define what it is, we will examine what its presence has supposed in each moment. We will deal with ambiguity as a constant presence that has always been latent in architectural production but whose nature has been modified over time. Eco, in the mid-twentieth century, discerned between classical ambiguity and contemporary ambiguity. Currently, half a century later, the challenge is to discern whether the idea of ambiguity has remained unchanged or have suffered a new transformation. What this research will demonstrate is that it’s possible to detect a new transformation that has much to do with the cultural and aesthetic context of last decades: the transition from modernism to postmodernism. This assumption leads us to establish two different levels of contemporary ambiguity: each one related to one these periods. The first level of ambiguity is widely well-known since many years. Its main characteristics are a codified multiplicity, an interpretative freedom and an active subject who gives conclusion to an object that is incomplete or indefinite. This level of ambiguity is related to the idea of indeterminacy, concept successfully introduced into contemporary aesthetic language. The second level of ambiguity has been almost unnoticed for architectural criticism, although it has been identified and studied in other theoretical disciplines. Much of the work of Fredric Jameson and François Lyotard shows reasonable evidences that the aesthetic production of postmodernism has transcended modern ambiguity to reach a new level in which, despite of the existence of multiplicity, the interpretative freedom and the active subject have been questioned, and at last denied. In this period ambiguity seems to have reached a new level in which it’s no longer possible to obtain a conclusive and complete interpretation of the object because it has became an unreadable device. The postmodern production offers a kind of inaccessible multiplicity and its nature is deeply contradictory. This hypothetical transformation of the idea of ambiguity has an outstanding analogy with that shown in the poetic analysis made by William Empson, published in 1936 in his Seven Types of Ambiguity. Empson established different levels of ambiguity and classified them according to their poetic effect. This layout had an ascendant logic towards incoherence. In seventh level, where ambiguity is higher, he located the contradiction between irreconcilable opposites. It could be said that contradiction, once it undermines the coherence of the object, was the better way that contemporary aesthetics found to confirm the Hegelian judgment, according to which art would ultimately reject its capacity to express truth. Much of the transformation of architecture throughout last century is related to the active involvement of ambiguity in its theoretical discourse. In modern architecture ambiguity is present afterwards, in its critical review made by theoreticians like Colin Rowe, Manfredo Tafuri and Bruno Zevi. The publication of several studies about Mannerism in the forties and fifties rescued certain virtues of an historical style that had been undervalued due to its deviation from Renacentist canon. Rowe, Tafuri and Zevi, among others, pointed out the similarities between Mannerism and certain qualities of modern architecture, both devoted to break previous dogmas. The recovery of Mannerism allowed joining ambiguity and modernity for first time in the same sentence. In postmodernism, on the other hand, ambiguity is present ex-professo, developing a prominent role in the theoretical discourse of this period. The distance between its analytical identification and its operational use quickly disappeared because of structuralism, an analytical methodology with the aspiration of becoming a modus operandi. Under its influence, architecture began to be identified and studied as a language. Thus, postmodern theoretical project discerned between the components of architectural language and developed them separately. Consequently, there is not only one, but three projects related to postmodern contradiction: semantic project, syntactic project and pragmatic project. Leading these projects are those prominent architects whose work manifested an especial interest in exploring and developing the potential of the use of contradiction in architecture. Thus, Robert Venturi, Peter Eisenman and Rem Koolhaas were who established the main features through which architecture developed the dialectics of ambiguity, in its last and extreme level, as a theoretical project in each component of architectural language. Robert Venturi developed a new interpretation of architecture based on its semantic component, Peter Eisenman did the same with its syntactic component, and also did Rem Koolhaas with its pragmatic component. With this approach this research aims to establish a new reflection on the architectural transformation from modernity to postmodernity. Also, it can serve to light certain aspects still unaware that have shaped the architectural heritage of past decades, consequence of a fruitful relationship between architecture and ambiguity and its provocative consummation in a contradictio in terminis. Esta investigación centra su atención fundamentalmente sobre las repercusiones de la incorporación de la ambigüedad en forma de contradicción en el discurso arquitectónico postmoderno, a través de cada uno de sus tres proyectos teóricos. Está estructurada, por tanto, en torno a un capítulo principal titulado Dialéctica de la ambigüedad como proyecto teórico postmoderno, que se desglosa en tres, de títulos: Proyecto semántico. Robert Venturi; Proyecto sintáctico. Peter Eisenman; y Proyecto pragmático. Rem Koolhaas. El capítulo central se complementa con otros dos situados al inicio. El primero, titulado Dialéctica de la ambigüedad contemporánea. Una aproximación realiza un análisis cronológico de la evolución que ha experimentado la idea de la ambigüedad en la teoría estética del siglo XX, sin entrar aún en cuestiones arquitectónicas. El segundo, titulado Dialéctica de la ambigüedad como crítica del proyecto moderno se ocupa de examinar la paulatina incorporación de la ambigüedad en la revisión crítica de la modernidad, que sería de vital importancia para posibilitar su posterior introducción operativa en la postmodernidad. Un último capítulo, situado al final del texto, propone una serie de Proyecciones que, a tenor de lo analizado en los capítulos anteriores, tratan de establecer una relectura del contexto arquitectónico actual y su evolución posible, considerando, en todo momento, que la reflexión en torno a la ambigüedad todavía hoy permite vislumbrar nuevos horizontes discursivos. Cada doble página de la Tesis sintetiza la estructura tripartita del capítulo central y, a grandes rasgos, la principal herramienta metodológica utilizada en la investigación. De este modo, la triple vertiente semántica, sintáctica y pragmática con que se ha identificado al proyecto teórico postmoderno se reproduce aquí en una distribución específica de imágenes, notas a pie de página y cuerpo principal del texto. En la columna de la izquierda están colocadas las imágenes que acompañan al texto principal. Su distribución atiende a criterios estéticos y compositivos, cualificando, en la medida de lo posible, su condición semántica. A continuación, a su derecha, están colocadas las notas a pie de página. Su disposición es en columna y cada nota está colocada a la misma altura que su correspondiente llamada en el texto principal. Su distribución reglada, su valor como notación y su posible equiparación con una estructura profunda aluden a su condición sintáctica. Finalmente, el cuerpo principal del texto ocupa por completo la mitad derecha de cada doble página. Concebido como un relato continuo, sin apenas interrupciones, su papel como responsable de satisfacer las demandas discursivas que plantea una investigación doctoral está en correspondencia con su condición pragmática.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Como es bien sabido, en el método de los elementos finitos se suele hablar de dos tipos de convergencia. La primera, o convergencia h, se refiere a la mejora del resultado que se obtiene refinando la malla. Debido a la correspondencia elemento-variables nodales-funciones de interpolación, ello implica un ajuste progresivo de los resultados en aquellas zonas donde se produce el refinamiento. Se trata del método más usado cuando, de forma pragmática, se desea tener una idea de la convergencia de los resultados. Su principal inconveniente radica en el hecho que cada refinamiento exige el cálculo de matrices de rigidez diferentes de las anteriores, de modo que la información debe ser rehecha en cada caso y, por tanto, los costes son elevados. El segundo método analiza la convergencia p, o refinamiento de la aproximación mediante el incremento del grado del polinomio definido sobre cada elemento. Se trata de abandonar la idea de asociar a cada nodo el valor físico de la variable correspondiente en la aproximación típica: u ~ a1Ø1 + a2Ø2 + a3Ø3+ … + anØn; donde las funciones Ø son unidad en el nodo correspondiente y cero en el resto. Por el contrario, se vuelve a la idea original de Ritz, semejante al de un desarrollo en la serie de Fourier, donde las funciones Ø están definidas globalmente y los coeficientes de ponderación no tienen por qué presentar un significado físico concreto. Evidentemente la vuelta no es total; se siguen manteniendo elementos y dentro de cada uno de ellos se establece una jerarquía de funciones Øi. Con esta situación intermedia entre la globalidad absoluta de Ritz y la correspondencia absoluta de la discretización con las variables se consigue, por un lado, mantener una versatilidad suficiente para el ajuste por trozos y, por otro, refinar la aproximación de forma inteligente ya que, al igual que sucede en una serie de Fourier, cada término que se añade produce un efecto menor, lo que posibilita el truncamiento cuando se alcanza un determinado nivel de precisión. Además, puesto que cada Ø tiene un soporte perfectamente definido desde un principio, cada etapa del refinamiento aprovecha todos los cálculos anteriores y sólo se necesita evaluar los nuevos términos de la matriz de rigidez. La primera idea fue propuesta por Zienckiewicz et al.(1970), y posteriormente han desarrollado el método Szabo et al.(1978), Babuska (1975,1978), Peano (1978)etc. El proceso operativo incluye así: a)Establecimiento de una malla amplia sobre el dominio a analizar; b)Definición de una jerarquía de funciones de interpolación dentro de cada elemento; c)Establecimiento de un "indicador" de las zonas que precisen la adición de nuevas funciones jerarquizadas; d)Establecimiento de un "estimador a posteriori" que evalúe el error cometido y precise el momento en que pueda ser detenido el proceso. Un método que sigue los pasos anteriores se denomina autoadaptable y, como se puede comprender, resulta interesantísimo para problemas no triviales. En este artículo, se contempla la posibilidad de extender las ideas anteriores al método de los elementos de contorno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Como es bien sabido, en el método de los elementos finitos se suele hablar de dos tipos de convergencia. La primera, o convergencia h, se refiere a la mejora del resultado que se obtiene refinando la malla. Debido a la correspondencia elemento-variables nodales-funciones de interpolación, ello implica un ajuste progresivo de los resultados en aquellas zonas donde se produce el refinamiento. Se trata del método más usado cuando, de forma pragmática, se desea tener una idea de la convergencia de los resultados. Su principal inconveniente radica en el hecho que cada refinamiento exige el cálculo de matrices de rigidez diferentes de las anteriores, de modo que la información debe ser rehecha en cada caso y, por tanto, los costes son elevados. El segundo método analiza la convergencia p, o refinamiento de la aproximación mediante el incremento del grado del polinomio definido sobre cada elemento. Se trata de abandonar la idea de asociar a cada nodo el valor físico de la variable correspondiente en la aproximación típica: u ~ a1Ø1 + a2Ø2 + a3Ø3+ … + anØn; donde las funciones Ø son unidad en el nodo correspondiente y cero en el resto. Por el contrario, se vuelve a la idea original de Ritz, semejante al de un desarrollo en la serie de Fourier, donde las funciones Ø están definidas globalmente y los coeficientes de ponderación no tienen por qué presentar un significado físico concreto. Evidentemente la vuelta no es total; se siguen manteniendo elementos y dentro de cada uno de ellos se establece una jerarquía de funciones Øi. Con esta situación intermedia entre la globalidad absoluta de Ritz y la correspondencia absoluta de la discretización con las variables se consigue, por un lado, mantener una versatilidad suficiente para el ajuste por trozos y, por otro, refinar la aproximación de forma inteligente ya que, al igual que sucede en una serie de Fourier, cada término que se añade produce un efecto menor, lo que posibilita el truncamiento cuando se alcanza un determinado nivel de precisión. Además, puesto que cada Ø tiene un soporte perfectamente definido desde un principio, cada etapa del refinamiento aprovecha todos los cálculos anteriores y sólo se necesita evaluar los nuevos términos de la matriz de rigidez. La primera idea fue propuesta por Zienckiewicz et al.(1970), y posteriormente han desarrollado el método Szabo et al.(1978), Babuska (1975,1978), Peano (1978)etc. El proceso operativo incluye así: a)Establecimiento de una malla amplia sobre el dominio a analizar; b)Definición de una jerarquía de funciones de interpolación dentro de cada elemento; c)Establecimiento de un "indicador" de las zonas que precisen la adición de nuevas funciones jerarquizadas; d)Establecimiento de un "estimador a posteriori" que evalúe el error cometido y precise el momento en que pueda ser detenido el proceso. Un método que sigue los pasos anteriores se denomina autoadaptable y, como se puede comprender, resulta interesantísimo para problemas no triviales. En este artículo, se contempla la posibilidad de extender las ideas anteriores al método de los elementos de contorno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hay un ejemplar encuadernado con: Descripcion del muelle que la... ciudad de Valencia ha mandado fabricar en su playa... (XVII/40).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hay un ejemplar encuadernado con: Descripcion del muelle que la... ciudad de Valencia ha mandado fabricar en su playa... (XVII/40).