155 resultados para Modalização epistêmica
Resumo:
Este trabajo efectúa una sistematización bibliográfica de algunos antecedentes relevantes sobre enseñanza de la argumentación en clases de Ciencias Naturales. Con este fin, se relevan 24 artículos de revistas y 24 capítulos de libros pertenecientes a dos ámbitos internacionales de investigación. En el ámbito anglosajón, consideramos las propuestas que subrayan el potencial epistémico de la argumentación en el aula. En el ámbito franco-español, nos centramos en los aportes que observan la clase de ciencias como espacio privilegiado de debate y aprendizaje. De este modo, ponemos énfasis en las investigaciones específicamente vinculadas con la didáctica de las ciencias y con la enseñanza de la argumentación científica. A partir de este corpus, nos preguntamos cuáles son las perspectivas y las nociones sobre argumentación que circulan en estas publicaciones. Al respecto, distinguimos dos macro-nociones: (a) desde una perspectiva más lógica, la argumentación constituye una herramienta epistémica para construir conocimientos (b) desde una perspectiva más dialéctica, la argumentación se torna una herramienta didáctica que permite aprender contenidos y desarrollar el pensamiento crítico. Las conclusiones de este estudio exploratorio podrían servir para repensar y profundizar reflexiones sobre las propias prácticas de argumentación dentro del aula
Resumo:
El presente trabajo se inscribe en el marco del proyecto de investigación La lectura y la escritura académicas en los primeros años de la carrera de Psicología de la UNLP. Su impacto en el aprendizaje de los estudiantes dirigido por la Dra. Ana María Talak en la Facultad de Psicología de la Universidad Nacional de La Plata cuyos objetivos consisten, por un lado, en conocer las características socio demográficas de la población de estudiantes de los dos primeros años de la carrera y, por otro, en relevar evidencia acerca del impacto en el aprendizaje de las estrategias pedagógicas implementadas en las asignaturas Psicología I y Psicología II que busquen fortalecer las habilidades de lectura y de escritura académicas. El objetivo de este trabajo consiste en describir las implicancias de la adopción de la perspectiva histórica en la enseñanza de la psicología, objetivo general de la asignatura Psicología I, y asimismo presentar la propuesta metodológica de enseñanza y evaluación que se implementa al finalizar la cursada. La misma consiste en un trabajo de evaluación correspondiente a la última unidad del programa de la signatura, 'Los primeros desarrollos de la psicología en la Argentina', a ser elaborado por alumnos que cursan la materia Psicología I en calidad de alumnos regulares y cuyo objetivo apunta a que los mismos articulen algunos de los contenidos allí incluidos, con alguna de las tradiciones incorporadas en las unidades previas del programa de la asignatura y/o con los contenidos histórico-epistemológicos de la unidad introductoria. A su vez, esta actividad intenta propiciar la puesta en juego de habilidades de lectura y escritura académicas, entendiendo que las mismas tienen una función epistémica que favorece la apropiación de los contenidos específicos de la disciplina. Finalmente, se incorpora como requisito para la realización del trabajo la formación de duplas de trabajo que elaboren conjuntamente el escrito a presentar, lo cual recibe su fundamentación en uno de los ejes del proyecto de investigación y de la propuesta pedagógica de la asignatura: la concepción de la construcción del conocimiento como una actividad distribuida (Salomon, 2001), que se produce tanto la interacción entre alumnos como también en el intercambio con el docente. El presente trabajo incorpora, a modo de ejemplos, algunas de las consignas confeccionadas y propuestas por los docentes como así también la descripción de las categorías de análisis que se tienen en cuenta para la evaluación de las producciones escritas: jerarquización, propiedad conceptual, pertinencia, extensión, coherencia y cohesión y, por último, uso de los signos de puntuación. En relación a la propiedad conceptual, se valora la corrección de los conceptos utilizados, ya sea aquellos propios de los autores a partir de los cuales se realiza el trabajo, como así también en lo que refiere a la articulación entre autores y entre cada autor y su contexto, propuesta en la consigna. También se considera la pertinencia del trabajo, es decir el ajuste de la producción escrita elaborada por el alumno a lo que solicita la consigna seleccionada. Se anticipa finalmente, para un próximo trabajo, la evaluación de los resultados de la implementación de esta actividad a partir del análisis tanto a nivel cuantitativo como cualitativo de las producciones presentadas por los alumnos, lo cual permitirá establecer el impacto que la propuesta teórica y metodológica de la asignatura tiene en el aprendizaje de los estudiantes
Resumo:
Desde los comienzos del Psicoanálisis, Sigmund Freud planteó la elaboración de una teoría clínica propia del psicoanálisis que fuera diferente de las formuladas por la Psiquiatría, lo que implicaba: por una parte, una nosografía particular, es decir, una identificación de los síntomas ajustada y, en segundo lugar, teorías explicativas propias. En líneas generales, Freud realizó este proceso derivándolo de la clínica psiquiátrica. Contemporáneo de la construcción del edificio nosográfico de su época, el creador del psicoanálisis fue retomando categorías diagnósticas de la psiquiatría con el propósito de interrogar cuál era la incidencia del inconciente por él descubierto en los síntomas de los pacientes. Este cuestionamiento implicó una nueva operación que es la que determinó la especificidad del psicoanálisis desde dos vertientes, por otra parte indisociables: una, la epistémica, desde la exploración del inconciente, a partir de la palabra, los significantes y los deseos. La otra vertiente, tributaria de la anterior, es terapéutica, en la medida en que en ese acto se obtienen modificaciones en los síntomas. El objetivo del presente trabajo, enmarcado en el proyecto de investigación 'Lógica y alcance de las operaciones del analista según Freud: Colegir (erraten), interpretar, construir', acreditado en el programa de incentivos del Ministerio de Educación de la Nación, y dirigido por el Prof. Carlos Escars, es abordar el concepto de construcción, noción que, junto con la de interpretación, son vertebradoras de la actividad del analista, e interrogar si es posible señalar analogías o diferencias con la figura lógica denominada abducción, o también retroducción. Cabe señalar que el interés suscitado en el concepto de construcción se sustenta en que, a lo largo de la obra de Sigmund Freud, no ha recibido un tratamiento unívoco por parte del autor, adquiriendo particular relevancia a partir de 1920, segunda época de la técnica analítica en la que hace prevalecer la construcción sobre la interpretación. A partir de 1937, en su artículo sobre las construcciones, ('Construcciones en el análisis'), Freud da cuenta de la actividad del analista en términos de la metáfora arqueológica, acentuando la diferencia entre los roles del paciente y del analista y de sus lugares en el proceso de una cura. Aquí puede establecerse que la preocupación por alcanzar ese núcleo de real, la verdad histórica que falta al discurso del paciente, se produce por el proceso de intercambio que, a partir de una construcción, desencadena en el otro una articulación de su historia: es en la medida en que un fragmento de realidad histórica ha sido perdido que la construcción se impone. De la lectura de los textos han surgido varios interrogantes que permiten articular dos dominios: el de la dinámica de la cura y el del valor de las construcciones y de los problemas que surgen de la técnica. En esa perspectiva, el trabajo plantea si es posible darle estatuto de proceso lógico a la cura analítica, en la medida en que hablar de conclusión de la cura, introduce una relación con la lógica, un entonces implícito o explícito
Resumo:
El presente trabajo se enmarca en el Proyecto de investigación 'Lógica y alcance de las operaciones del analista según Freud: colegir (erraten), interpretar, construir', acreditado pro la Universidad Nacional de La Plata en el marco del Programa de Incevntivos del Ministerio de Educación de la Nación, y dirigido por el Dr. Carlos J. Escars. Cátedra de Teoría Psicoanalítica. Facultad de Psicología, UNLP. La metodología del mismo presentó dos etapas que se conjugaron en un segundo momento. En una primera instancia presentó la forma de un análisis y comparación de textos basado en un método argumentativo. Abordamos los escritos freudianos y notas de Strachey. En una segunda, analizamos publicaciones e investigaciones vigentes sobre las denominadas presentaciones y patologías de época. Finalmente arribamos a conclusiones que en el presente esbozaremos y que nos sitúa en esta doble vertiente indisociable en psicoanálisis: la vertiente epistémica y la vertiente terapéutica. Este trabajo se propone como objetivo situar algunos aspectos que hacen al estatuto lógico de los bordes del saber psicoanalítico, cernidos los mismos a partir de la brecha establecida entre intento de de formalización y aquello que se resiste a hacer sistema. Con tal propósito, apelamos a los escritos técnicos de Freud y nos ocuparemos de las apuestas freudianas por formalizar la técnica psicoanalítica, así como también de los obstáculos clínicos que le impidieron la pretendida mecanización de la técnica. Proseguiremos con un rastreo de los usos que Freud le ha dado a 'lo actual'. Es este mismo significante, 'actual' el que aparece asociado a los límites de la cura por la palabra así como también a una de sus primeras organizaciones nosográficas. De este modo nos serviremos de la categoría de Neurosis Actuales para realizar un recorrido sobre aquello que allá por 1895 Freud había situado una de las mayores momento. En una primera instancia presentó la forma de un análisis y comparación de textos basado en un método argumentativo. Abordamos los escritos freudianos y notas de Strachey. En una segunda, analizamos publicaciones e investigaciones vigentes sobre las denominadas presentaciones y patologías de época. Finalmente arribamos a conclusiones que en el presente esbozaremos y que nos sitúa en esta doble vertiente indisociable en psicoanálisis: la vertiente epistémica y la vertiente terapéutica. Este trabajo se propone como objetivo situar algunos aspectos que hacen al estatuto lógico de los bordes del saber psicoanalítico, cernidos los mismos a partir de la brecha establecida entre intento de de formalización y aquello que se resiste a hacer sistema. Con tal propósito, apelamos a los escritos técnicos de Freud y nos ocuparemos de las apuestas freudianas por formalizar la técnica psicoanalítica, así como también de los obstáculos clínicos que le impidieron la pretendida mecanización de la técnica. Proseguiremos con un rastreo de los usos que Freud le ha dado a 'lo actual'. Es este mismo significante, 'actual' el que aparece asociado a los límites de la cura por la palabra así como también a una de sus primeras organizaciones nosográficas. De este modo nos serviremos de la categoría de Neurosis Actuales para realizar un recorrido sobre aquello que allá por 1895 Freud había situado una de las mayores resistencias a la técnica psicoanalítica: lo no analizable, aquello que no se advenía al trabajo asociativo en transferencia. En nuestra actualidad, cien años después del planteo freudiano, nos encontramos con una apuesta similar: bajo el epígrafe de presentaciones actuales o de época se intenta formalizar aquello que se resiste a hacer sistema. A partir de la pregunta sobre la época esbozada por los analistas y sus intentos de respuesta, intentamos cernir el lugar lógico que el significante época (o actual) porta para el edificio teórico en psicoanálisis así como su posible vinculación con la ausencia de saberes que oficien de garantes y orienten el hacer psicoanalítico. Epoca que tomada como categoría lógica pondrá en cuestión -al igual que el caso- el edificio teórico del psicoanálisis, y que conminará al analista a enfrentarse con lo incalculable/inclasificable de las presentaciones clínicas. De esta manera pareciera conformarse una dimensión de la experiencia analítica vinculada con la construcción colectiva de saberes. Experiencia diferente, pero no independiente de la configurada por la pregunta en transferencia, cuyos saberes se proponen que el psicoanálisis opere. Saberes, mecanismos y reglas técnicas que permitirán un cálculo posible, efecto mismo del intento de formalizar aquello que del caso por caso construye regularidad. Coordenadas del cálculo que, sin embargo, deberán dar lugar a lo incalculable. La teoría que orienta a la clínica psicoanalítica es derivada de las categorías diagnósticas de la clínica psiquiátrica. Tanto Freud como Lacan tienen como referencia dicha nosografía pero arriban a una teoría explicativa de lo que devendrá su propia clínica. Ahora bien, ¿cómo surge este saber sobre la clínica? Es de la clínica misma, de sus obstáculos bajo transferencia, que se elabora este saber determinado por la estructura de la experiencia analítica. Se vuelve así indisociable en el psicoanálisis, como plantea Colette Soler (2003-2004), la vertiente epistémica de la vertiente terapéutica: mediante la exploración del inconsciente, de los significantes, deseos y palabras que por él circulan, se obtienen modificaciones, se curan los síntomas. Intentaremos en este trabajo abordar aquello que se resiste a ser sistematizado de la técnica así como las dificultades que las 'patologías actuales' representan para la misma
Resumo:
Enmarcado en el proyecto de investigación, acreditado por la Universidad Nacional de La Plata, 'Lógica y alcance de las operaciones del analista según Freud: Colegir (erraten), interpretar, construir', el presente trabajo tiene por objeto contribuir a la delimitación conceptual del colegir freudiano. A estos fines, se procederá a indagar el campo de las inferencias, sosteniendo la perspectiva de que aquello que Freud designa bajo la forma verbal alemana 'zu erraten' consiste en un tal proceso inferencial, si bien en uno de particular operatoria. Intentar pensar en esta modalidad de accionar desde la lógica silogística clásica deriva necesariamente en un callejón sin salida, en tanto el psicoanálisis en su dimensión epistémica nos enfrenta con aquello que escapa a toda posibilidad de ser aprehendido de modo directo a partir de la experiencia, y hace necesario un salto hacia lo únicamente conjeturable (ni pasible de ser deducido a partir de premisas preexistentes, ni generalizable desde casos particulares por vía inductiva). Esta dificultad nos encaminará a explorar especialmente el aporte de Peirce con su inferencia abductiva, por cuanto permitiría despejar el camino emprendido por Freud en su modo de hipotetizar. La virtud de la abducción como modalidad de razonamiento reside, a nuestro entender, en su dimensión innovadora, que brinda la posibilidad de recortar una parcela de la experiencia que adquiere a partir de ese movimiento inaugural el estatuto de indicio. En este mismo movimiento, la abducción permite apreciar aquella dimensión susceptible de designarse como singular, que resulta intransferible de una experiencia a otra. La novedad peirceana abona, en este sentido, el camino de la legitimidad de lo singular, inexorable al psicoanálisis. Consideramos que no es sino hacia allí que se dirige Freud en su intento por circunscribir y hacer inteligibles aquellos retoños de lo psíquico inconciente, que le permitan colegir (conjeturar) la lógica que se encuentra determinándolos. Posteriormente, y a partir del diálogo emprendido entre el colegir freudiano y la abducción peirceana, procederemos a situar en Freud tres momentos de la postulación de la hipótesis del inconciente, a partir de la lectura de algunas indicaciones presentes en los artículos 'El método psicoanalítico de Freud' de 1904, 'Nota sobre el concepto de inconciente en psicoanálisis' de 1912 y 'Lo inconciente' de 1915. Observaremos allí el movimiento que el autor hace en su postulación de la existencia de actos que burlan la lógica del pensamiento conciente, no obstante prescindiendo de los cuales se produce una indudable pérdida de coherencia y sentido en la comprensión de la vida psíquica de los seres humanos. Es decir, exploraremos en tres momentos de la obra freudiana, la justificación y formalización progresiva de esta hipótesis medular. Para concluir, presentaremos algunos interrogantes que, a partir de lo trabajado, nos permiten comenzar a delinear una interesante articulación con la cuestión de la temporalidad en psicoanálisis. Creemos discernir allí, a partir de algunas apreciaciones de Lacan, una preocupación permanente respecto del tratamiento del tiempo del inconciente, cuestión que se liga directamente a la pautación de los tiempos de la intervención del analista y a la cuestión del actoanalítico
Resumo:
Los Territorios Específicos condicionados socioambiental y/o físicoculturalmente son sistematizados en base a sus cualidades éticas y estéticas en su sentido filosófico y formal respectivamente. Los mismos surgen como entidades orgánicamente integradas a nivel de las prácticas culturales en función de una performatividad autopoiética con gradientes y resonancias ampliamente debatidas académicamente y/o, a través de producciones específicas de las artes visuales contemporáneas. La Cartografía Estética propuesta se conforma de un corpus de obras plásticas y teóricas que, en la trayectoria expositiva abordada para este estudio, conforman una constelación de ejes temáticos y procedimentales en vinculación a los modos de producción en artes visuales. Estos nódulos o modos de hacer en artes visuales, se integran en una fascinante e interesante red epistemológica que, a la luz de las obras de arte seleccionadas son transparentadas no sólo en su complejidad epistémica sino que también son confrontados a interesantes gestos y guiños visuales a modo de cita y figuras conceptuales que en sentido moebiano remisionan formas de inscripción de obra y de la legibilidad de la misma conformando un alfabeto visual contemporáneo indispensable a la hora de pensar y entender la producción artística del último siglo en general y de las artes visuales latinoamericanas y chilenas en particular, todas ellas conforman una panorámica global en lo que hoy se conoce y divulga como arte actual. La unidad espacial abordada como Territorios Específicos se constituyen críticamente por conformar zonas y áreas marginales, espacios residuales y limítrofes, a la vez que contenedores y contenido de resistencia asistémica facilitado por un desinterés administrativo consecuente a su calidad de margen residual naturalizado y sus contenidos subyacentes. Metodológicamente, esta investigación ha sido cuidadosamente sistematizada a partir de herramientas de análisis y medición provenientes de las ciencias sociales y otras más afín a las de la ingeniería como arquitectura y urbanismo y de otras ciencias fronterizas de las biofísicas como la arqueología, etnografía y antropología, adaptadas todas a un interesantísimo protocolo instrumental replicable para las artes visuales. Este compendio procedimental comprende acciones de arte de sitio específico realizadas en una franja costera de 30 kilómetros que abarca desde la ciudad de Valdivia hasta 'La Reserva de Curiñanco' en la recientemente inaugurada XIV Región de Los Ríos en Chile. Estas acciones son confrontadas y tensionadas tanto a nivel de la crítica especializada como de sus afluentes epistemológicos colindantes con las ciencias humanas, donde, este corpus de obra contemporáneas, curatorías, proyectos de sitio y debates especializados, aportan considerablemente a la construcción de futuros posibles no solo de las artes visuales en particular y de las ciencias humanas en general, sino que además conllevan un debate ineludible para el desafío implicado en el debate territorio/globalización
Resumo:
El presente trabajo se inscribe en el marco del proyecto de investigación La lectura y la escritura académicas en los primeros años de la carrera de Psicología de la UNLP. Su impacto en el aprendizaje de los estudiantes dirigido por la Dra. Ana María Talak en la Facultad de Psicología de la Universidad Nacional de La Plata cuyos objetivos consisten, por un lado, en conocer las características socio demográficas de la población de estudiantes de los dos primeros años de la carrera y, por otro, en relevar evidencia acerca del impacto en el aprendizaje de las estrategias pedagógicas implementadas en las asignaturas Psicología I y Psicología II que busquen fortalecer las habilidades de lectura y de escritura académicas. El objetivo de este trabajo consiste en describir las implicancias de la adopción de la perspectiva histórica en la enseñanza de la psicología, objetivo general de la asignatura Psicología I, y asimismo presentar la propuesta metodológica de enseñanza y evaluación que se implementa al finalizar la cursada. La misma consiste en un trabajo de evaluación correspondiente a la última unidad del programa de la signatura, 'Los primeros desarrollos de la psicología en la Argentina', a ser elaborado por alumnos que cursan la materia Psicología I en calidad de alumnos regulares y cuyo objetivo apunta a que los mismos articulen algunos de los contenidos allí incluidos, con alguna de las tradiciones incorporadas en las unidades previas del programa de la asignatura y/o con los contenidos histórico-epistemológicos de la unidad introductoria. A su vez, esta actividad intenta propiciar la puesta en juego de habilidades de lectura y escritura académicas, entendiendo que las mismas tienen una función epistémica que favorece la apropiación de los contenidos específicos de la disciplina. Finalmente, se incorpora como requisito para la realización del trabajo la formación de duplas de trabajo que elaboren conjuntamente el escrito a presentar, lo cual recibe su fundamentación en uno de los ejes del proyecto de investigación y de la propuesta pedagógica de la asignatura: la concepción de la construcción del conocimiento como una actividad distribuida (Salomon, 2001), que se produce tanto la interacción entre alumnos como también en el intercambio con el docente. El presente trabajo incorpora, a modo de ejemplos, algunas de las consignas confeccionadas y propuestas por los docentes como así también la descripción de las categorías de análisis que se tienen en cuenta para la evaluación de las producciones escritas: jerarquización, propiedad conceptual, pertinencia, extensión, coherencia y cohesión y, por último, uso de los signos de puntuación. En relación a la propiedad conceptual, se valora la corrección de los conceptos utilizados, ya sea aquellos propios de los autores a partir de los cuales se realiza el trabajo, como así también en lo que refiere a la articulación entre autores y entre cada autor y su contexto, propuesta en la consigna. También se considera la pertinencia del trabajo, es decir el ajuste de la producción escrita elaborada por el alumno a lo que solicita la consigna seleccionada. Se anticipa finalmente, para un próximo trabajo, la evaluación de los resultados de la implementación de esta actividad a partir del análisis tanto a nivel cuantitativo como cualitativo de las producciones presentadas por los alumnos, lo cual permitirá establecer el impacto que la propuesta teórica y metodológica de la asignatura tiene en el aprendizaje de los estudiantes
Resumo:
La tesis de referencia versa sobre la manera en que la actual fase del capitalismo en ámbitos periféricos se manifiesta como una neo-colonización del mundo, hecho que supone una reordenación epistémica e intelectual del mismo e impone un nuevo patrón espacial primario-exportador-exógeno. En este contexto, los territorios se recrean en su propia temporalidad, reestructurándose no sólo sus funciones sino también su valor simbólico. Concretamente se analizan los efectos territoriales del neoliberalismo vinculados a la explotación metalífera de gran escala a cielo abierto [Bajo de la Alumbrera] en la provincia de Catamarca, y en Santa María, a partir de la década del noventa [XX], proponiendo un discurso disciplinar anclado en la geografía que concibe lo espacial en su doble dimensión -material e inmaterial-, o como propone Haesbaert, como ámbito de dominación político-económica y de apropiación cultural y simbólica a la vez. Para dar cuenta de la experiencia cambiante del espacio, se pretende desentrañar la multiplicidad de procesos que ocurren y cruzan el espacio, imaginando y construyendo territorios en el área de estudio en torno a la mega-minera, procesos que encuentran respuestas a nivel local. El escrito de la tesis se organiza en tres partes. Una primera parte compuesta por los capítulos uno y dos; una segunda parte compuesta por el capítulo tres que oficia de bisagra entre los capítulos de índole general y los referentes al estudio de caso; y una tercera parte compuesta por los capítulos cuatro, cinco y seis, destinados concretamente al estudio del caso. Ampliando esta presentación, en el capítulo se presenta el marco contextual [proceso de acumulación capitalista en ámbitos periféricos] y teórico-epistemológico [estudios postcoloniales]. En el capítulo dos se presentan los métodos y técnicas empleadas y la descripción medio-ambiental y socio-productiva del estudio de caso [Santa María]. En el capítulo tres se explica la construcción del territorio como un contexto de periferia del capitalismo global y deado nacional, contexto que habilitó la actual dinámica expropiatoria. En el capítulo cuatro se analiza la multiplicidad de discursos en torno a la mega-minería, y cómo éstos recrean el territorio y permiten comprender la dinámica socio-territorial de la provincia. En el capítulo quinto se analizan las prácticas territoriales que se despliegan en el territorio a partir de Bajo de la Alumbrera y la respuesta que a nivel local encuentran las mismas. Estas prácticas recrean el territorio, dotando de nuevas funciones al mismo. En el capítulo seis se analiza la multiplicidad de representaciones espaciales a partir de la mega-minería, su relación con las trayectorias e historias de los sujetos, y cómo éstas construyen territorio, dotando de nuevos sentidos a la realidad. Finalmente, las conclusiones y los principales aportes y posibles líneas de investigación o temáticas emergentes que no pudieron ser abordadas por exceder los objetivos y recursos previstos para esta investigación
Resumo:
Desde los comienzos del Psicoanálisis, Sigmund Freud planteó la elaboración de una teoría clínica propia del psicoanálisis que fuera diferente de las formuladas por la Psiquiatría, lo que implicaba: por una parte, una nosografía particular, es decir, una identificación de los síntomas ajustada y, en segundo lugar, teorías explicativas propias. En líneas generales, Freud realizó este proceso derivándolo de la clínica psiquiátrica. Contemporáneo de la construcción del edificio nosográfico de su época, el creador del psicoanálisis fue retomando categorías diagnósticas de la psiquiatría con el propósito de interrogar cuál era la incidencia del inconciente por él descubierto en los síntomas de los pacientes. Este cuestionamiento implicó una nueva operación que es la que determinó la especificidad del psicoanálisis desde dos vertientes, por otra parte indisociables: una, la epistémica, desde la exploración del inconciente, a partir de la palabra, los significantes y los deseos. La otra vertiente, tributaria de la anterior, es terapéutica, en la medida en que en ese acto se obtienen modificaciones en los síntomas. El objetivo del presente trabajo, enmarcado en el proyecto de investigación 'Lógica y alcance de las operaciones del analista según Freud: Colegir (erraten), interpretar, construir', acreditado en el programa de incentivos del Ministerio de Educación de la Nación, y dirigido por el Prof. Carlos Escars, es abordar el concepto de construcción, noción que, junto con la de interpretación, son vertebradoras de la actividad del analista, e interrogar si es posible señalar analogías o diferencias con la figura lógica denominada abducción, o también retroducción. Cabe señalar que el interés suscitado en el concepto de construcción se sustenta en que, a lo largo de la obra de Sigmund Freud, no ha recibido un tratamiento unívoco por parte del autor, adquiriendo particular relevancia a partir de 1920, segunda época de la técnica analítica en la que hace prevalecer la construcción sobre la interpretación. A partir de 1937, en su artículo sobre las construcciones, ('Construcciones en el análisis'), Freud da cuenta de la actividad del analista en términos de la metáfora arqueológica, acentuando la diferencia entre los roles del paciente y del analista y de sus lugares en el proceso de una cura. Aquí puede establecerse que la preocupación por alcanzar ese núcleo de real, la verdad histórica que falta al discurso del paciente, se produce por el proceso de intercambio que, a partir de una construcción, desencadena en el otro una articulación de su historia: es en la medida en que un fragmento de realidad histórica ha sido perdido que la construcción se impone. De la lectura de los textos han surgido varios interrogantes que permiten articular dos dominios: el de la dinámica de la cura y el del valor de las construcciones y de los problemas que surgen de la técnica. En esa perspectiva, el trabajo plantea si es posible darle estatuto de proceso lógico a la cura analítica, en la medida en que hablar de conclusión de la cura, introduce una relación con la lógica, un entonces implícito o explícito
Resumo:
Se relevan las fuentes socioprofesionales de la orientación vocacional, en el mundo y en América Latina. Se resalta que la psicología, como ciencia y como profesión, posee vigorosos lazos en esta práctica que, sin embargo, tiende a su emancipación epistémica y práxica en algunas naciones. Se presentan los problemas contemporáneos de la orientación en sus dimensiones económica, política, cultural y profesional.
Resumo:
Este trabajo efectúa una sistematización bibliográfica de algunos antecedentes relevantes sobre enseñanza de la argumentación en clases de Ciencias Naturales. Con este fin, se relevan 24 artículos de revistas y 24 capítulos de libros pertenecientes a dos ámbitos internacionales de investigación. En el ámbito anglosajón, consideramos las propuestas que subrayan el potencial epistémico de la argumentación en el aula. En el ámbito franco-español, nos centramos en los aportes que observan la clase de ciencias como espacio privilegiado de debate y aprendizaje. De este modo, ponemos énfasis en las investigaciones específicamente vinculadas con la didáctica de las ciencias y con la enseñanza de la argumentación científica. A partir de este corpus, nos preguntamos cuáles son las perspectivas y las nociones sobre argumentación que circulan en estas publicaciones. Al respecto, distinguimos dos macro-nociones: (a) desde una perspectiva más lógica, la argumentación constituye una herramienta epistémica para construir conocimientos (b) desde una perspectiva más dialéctica, la argumentación se torna una herramienta didáctica que permite aprender contenidos y desarrollar el pensamiento crítico. Las conclusiones de este estudio exploratorio podrían servir para repensar y profundizar reflexiones sobre las propias prácticas de argumentación dentro del aula
Resumo:
Se propone un análisis de la cientificidad y las pretensiones de conocimiento de las ciencias de la información desde la perspectiva de Richard Rorty. Se presenta la crítica rortyana a la filosofía epistemológicamente centrada, haciendo énfasis en la presunción de que el conocimiento tiene algún tipo de fundamento último, y la presunción de que la filosofía es la encargada de esclarecer este fundamento. Se introduce la propuesta del conductismo epistemológico de Rorty como alternativa al fundacionismo de la filosofía epistemológicamente centrada. Posteriormente se realiza una revisión de diferentes posturas sobre el status científico y la legitimidad epistémica de las ciencias de la información. Se agrupan las posturas revisadas en torno a dos estrategias de fundamentación: la adscripción de las ciencias de la información a algún modelo de cientificidad, o su vinculación con un sistema filosófico general. Se afirma que ambas estrategias presuponen una perspectiva fundacionista, en cuanto buscan ofrecer una fundamentación disciplinar en base a un marco filosófico exterior. A esto se opone el conductismo epistemológico rortyano, según el cual la autoridad epistémica debe explicarse a partir de los contextos específicos de cada comunidad, y no a partir de un fundamento epistémico externo
Resumo:
El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.
Resumo:
Esta dissertação de mestrado busca pesquisar a relação estabelecida pelo teólogo Ronald Cole-Turner, entre a engenharia genética e o conceito de co-criação , desenvolvido como uma alternativa para que se pense o papel do ser humano frente aos desenvolvimentos tecnológicos atuais. Tendo em vista o conceito da evolução, da criação contínua e dos potenciais gerados pela engenharia genética, Cole-Turner defende que o ser humano pode participar das atividades criativas de Deus por meio desta tecnologia, desde que priorize os aspectos redentivos que podem ser extraídos de seu uso. Faz isto em demonstrar, por meio do relato Jawista da criação, como o agir criativo de Deus está relacionado ao agir humano, através de suas tecnologias, e em relacionar os milagres de cura operados por Jesus nos evangelhos, como explicitação epistêmica da vontade de Deus, que pode ser participada pelos seres humanos. O objetivo básico desta pesquisa será o de relatar, no primeiro capítulo, o aspecto teórico da engenharia genética, nas suas possibilidades positivas e negativas. Em seguida, no capítulo segundo, se fará uma exposição do pensamento de Cole- Turner, em diálogo com outros interlocutores do tema. Por fim, no último capítulo, se verificará as respostas oferecidas às várias observações críticas que seu pensamento recebe. A hipótese é a de que, se a criação é um projeto contínuo e inacabado, e o destino dos seres humanos se encontra inserido dentro desta continuidade, seria coerente afirmar que estes possam participar das atividades de Deus em tais projetos. Como a evolução biológica é uma dimensão da criação, que ocorre por meio de transformações no capital genético dos organismos vivos, os seres humanos, tendo conhecimento e habilidade para repetir os processos verificados nestas modificações, poderão empreender seus esforços, tanto na área da técnica, como na da ética, para participarem da consecução dos propósitos de Deus.(AU)
Resumo:
Esta dissertação de mestrado busca pesquisar a relação estabelecida pelo teólogo Ronald Cole-Turner, entre a engenharia genética e o conceito de co-criação , desenvolvido como uma alternativa para que se pense o papel do ser humano frente aos desenvolvimentos tecnológicos atuais. Tendo em vista o conceito da evolução, da criação contínua e dos potenciais gerados pela engenharia genética, Cole-Turner defende que o ser humano pode participar das atividades criativas de Deus por meio desta tecnologia, desde que priorize os aspectos redentivos que podem ser extraídos de seu uso. Faz isto em demonstrar, por meio do relato Jawista da criação, como o agir criativo de Deus está relacionado ao agir humano, através de suas tecnologias, e em relacionar os milagres de cura operados por Jesus nos evangelhos, como explicitação epistêmica da vontade de Deus, que pode ser participada pelos seres humanos. O objetivo básico desta pesquisa será o de relatar, no primeiro capítulo, o aspecto teórico da engenharia genética, nas suas possibilidades positivas e negativas. Em seguida, no capítulo segundo, se fará uma exposição do pensamento de Cole- Turner, em diálogo com outros interlocutores do tema. Por fim, no último capítulo, se verificará as respostas oferecidas às várias observações críticas que seu pensamento recebe. A hipótese é a de que, se a criação é um projeto contínuo e inacabado, e o destino dos seres humanos se encontra inserido dentro desta continuidade, seria coerente afirmar que estes possam participar das atividades de Deus em tais projetos. Como a evolução biológica é uma dimensão da criação, que ocorre por meio de transformações no capital genético dos organismos vivos, os seres humanos, tendo conhecimento e habilidade para repetir os processos verificados nestas modificações, poderão empreender seus esforços, tanto na área da técnica, como na da ética, para participarem da consecução dos propósitos de Deus.(AU)