994 resultados para Saber e Técnicas Ancestrais
Resumo:
El presente trabajo se enmarca en el Proyecto de investigación 'Lógica y alcance de las operaciones del analista según Freud: colegir (erraten), interpretar, construir', acreditado pro la Universidad Nacional de La Plata en el marco del Programa de Incevntivos del Ministerio de Educación de la Nación, y dirigido por el Dr. Carlos J. Escars. Cátedra de Teoría Psicoanalítica. Facultad de Psicología, UNLP. La metodología del mismo presentó dos etapas que se conjugaron en un segundo momento. En una primera instancia presentó la forma de un análisis y comparación de textos basado en un método argumentativo. Abordamos los escritos freudianos y notas de Strachey. En una segunda, analizamos publicaciones e investigaciones vigentes sobre las denominadas presentaciones y patologías de época. Finalmente arribamos a conclusiones que en el presente esbozaremos y que nos sitúa en esta doble vertiente indisociable en psicoanálisis: la vertiente epistémica y la vertiente terapéutica. Este trabajo se propone como objetivo situar algunos aspectos que hacen al estatuto lógico de los bordes del saber psicoanalítico, cernidos los mismos a partir de la brecha establecida entre intento de de formalización y aquello que se resiste a hacer sistema. Con tal propósito, apelamos a los escritos técnicos de Freud y nos ocuparemos de las apuestas freudianas por formalizar la técnica psicoanalítica, así como también de los obstáculos clínicos que le impidieron la pretendida mecanización de la técnica. Proseguiremos con un rastreo de los usos que Freud le ha dado a 'lo actual'. Es este mismo significante, 'actual' el que aparece asociado a los límites de la cura por la palabra así como también a una de sus primeras organizaciones nosográficas. De este modo nos serviremos de la categoría de Neurosis Actuales para realizar un recorrido sobre aquello que allá por 1895 Freud había situado una de las mayores momento. En una primera instancia presentó la forma de un análisis y comparación de textos basado en un método argumentativo. Abordamos los escritos freudianos y notas de Strachey. En una segunda, analizamos publicaciones e investigaciones vigentes sobre las denominadas presentaciones y patologías de época. Finalmente arribamos a conclusiones que en el presente esbozaremos y que nos sitúa en esta doble vertiente indisociable en psicoanálisis: la vertiente epistémica y la vertiente terapéutica. Este trabajo se propone como objetivo situar algunos aspectos que hacen al estatuto lógico de los bordes del saber psicoanalítico, cernidos los mismos a partir de la brecha establecida entre intento de de formalización y aquello que se resiste a hacer sistema. Con tal propósito, apelamos a los escritos técnicos de Freud y nos ocuparemos de las apuestas freudianas por formalizar la técnica psicoanalítica, así como también de los obstáculos clínicos que le impidieron la pretendida mecanización de la técnica. Proseguiremos con un rastreo de los usos que Freud le ha dado a 'lo actual'. Es este mismo significante, 'actual' el que aparece asociado a los límites de la cura por la palabra así como también a una de sus primeras organizaciones nosográficas. De este modo nos serviremos de la categoría de Neurosis Actuales para realizar un recorrido sobre aquello que allá por 1895 Freud había situado una de las mayores resistencias a la técnica psicoanalítica: lo no analizable, aquello que no se advenía al trabajo asociativo en transferencia. En nuestra actualidad, cien años después del planteo freudiano, nos encontramos con una apuesta similar: bajo el epígrafe de presentaciones actuales o de época se intenta formalizar aquello que se resiste a hacer sistema. A partir de la pregunta sobre la época esbozada por los analistas y sus intentos de respuesta, intentamos cernir el lugar lógico que el significante época (o actual) porta para el edificio teórico en psicoanálisis así como su posible vinculación con la ausencia de saberes que oficien de garantes y orienten el hacer psicoanalítico. Epoca que tomada como categoría lógica pondrá en cuestión -al igual que el caso- el edificio teórico del psicoanálisis, y que conminará al analista a enfrentarse con lo incalculable/inclasificable de las presentaciones clínicas. De esta manera pareciera conformarse una dimensión de la experiencia analítica vinculada con la construcción colectiva de saberes. Experiencia diferente, pero no independiente de la configurada por la pregunta en transferencia, cuyos saberes se proponen que el psicoanálisis opere. Saberes, mecanismos y reglas técnicas que permitirán un cálculo posible, efecto mismo del intento de formalizar aquello que del caso por caso construye regularidad. Coordenadas del cálculo que, sin embargo, deberán dar lugar a lo incalculable. La teoría que orienta a la clínica psicoanalítica es derivada de las categorías diagnósticas de la clínica psiquiátrica. Tanto Freud como Lacan tienen como referencia dicha nosografía pero arriban a una teoría explicativa de lo que devendrá su propia clínica. Ahora bien, ¿cómo surge este saber sobre la clínica? Es de la clínica misma, de sus obstáculos bajo transferencia, que se elabora este saber determinado por la estructura de la experiencia analítica. Se vuelve así indisociable en el psicoanálisis, como plantea Colette Soler (2003-2004), la vertiente epistémica de la vertiente terapéutica: mediante la exploración del inconsciente, de los significantes, deseos y palabras que por él circulan, se obtienen modificaciones, se curan los síntomas. Intentaremos en este trabajo abordar aquello que se resiste a ser sistematizado de la técnica así como las dificultades que las 'patologías actuales' representan para la misma
Resumo:
El presente trabajo se enmarca en el Proyecto de investigación 'Lógica y alcance de las operaciones del analista según Freud: colegir (erraten), interpretar, construir', acreditado pro la Universidad Nacional de La Plata en el marco del Programa de Incevntivos del Ministerio de Educación de la Nación, y dirigido por el Dr. Carlos J. Escars. Cátedra de Teoría Psicoanalítica. Facultad de Psicología, UNLP. La metodología del mismo presentó dos etapas que se conjugaron en un segundo momento. En una primera instancia presentó la forma de un análisis y comparación de textos basado en un método argumentativo. Abordamos los escritos freudianos y notas de Strachey. En una segunda, analizamos publicaciones e investigaciones vigentes sobre las denominadas presentaciones y patologías de época. Finalmente arribamos a conclusiones que en el presente esbozaremos y que nos sitúa en esta doble vertiente indisociable en psicoanálisis: la vertiente epistémica y la vertiente terapéutica. Este trabajo se propone como objetivo situar algunos aspectos que hacen al estatuto lógico de los bordes del saber psicoanalítico, cernidos los mismos a partir de la brecha establecida entre intento de de formalización y aquello que se resiste a hacer sistema. Con tal propósito, apelamos a los escritos técnicos de Freud y nos ocuparemos de las apuestas freudianas por formalizar la técnica psicoanalítica, así como también de los obstáculos clínicos que le impidieron la pretendida mecanización de la técnica. Proseguiremos con un rastreo de los usos que Freud le ha dado a 'lo actual'. Es este mismo significante, 'actual' el que aparece asociado a los límites de la cura por la palabra así como también a una de sus primeras organizaciones nosográficas. De este modo nos serviremos de la categoría de Neurosis Actuales para realizar un recorrido sobre aquello que allá por 1895 Freud había situado una de las mayores momento. En una primera instancia presentó la forma de un análisis y comparación de textos basado en un método argumentativo. Abordamos los escritos freudianos y notas de Strachey. En una segunda, analizamos publicaciones e investigaciones vigentes sobre las denominadas presentaciones y patologías de época. Finalmente arribamos a conclusiones que en el presente esbozaremos y que nos sitúa en esta doble vertiente indisociable en psicoanálisis: la vertiente epistémica y la vertiente terapéutica. Este trabajo se propone como objetivo situar algunos aspectos que hacen al estatuto lógico de los bordes del saber psicoanalítico, cernidos los mismos a partir de la brecha establecida entre intento de de formalización y aquello que se resiste a hacer sistema. Con tal propósito, apelamos a los escritos técnicos de Freud y nos ocuparemos de las apuestas freudianas por formalizar la técnica psicoanalítica, así como también de los obstáculos clínicos que le impidieron la pretendida mecanización de la técnica. Proseguiremos con un rastreo de los usos que Freud le ha dado a 'lo actual'. Es este mismo significante, 'actual' el que aparece asociado a los límites de la cura por la palabra así como también a una de sus primeras organizaciones nosográficas. De este modo nos serviremos de la categoría de Neurosis Actuales para realizar un recorrido sobre aquello que allá por 1895 Freud había situado una de las mayores resistencias a la técnica psicoanalítica: lo no analizable, aquello que no se advenía al trabajo asociativo en transferencia. En nuestra actualidad, cien años después del planteo freudiano, nos encontramos con una apuesta similar: bajo el epígrafe de presentaciones actuales o de época se intenta formalizar aquello que se resiste a hacer sistema. A partir de la pregunta sobre la época esbozada por los analistas y sus intentos de respuesta, intentamos cernir el lugar lógico que el significante época (o actual) porta para el edificio teórico en psicoanálisis así como su posible vinculación con la ausencia de saberes que oficien de garantes y orienten el hacer psicoanalítico. Epoca que tomada como categoría lógica pondrá en cuestión -al igual que el caso- el edificio teórico del psicoanálisis, y que conminará al analista a enfrentarse con lo incalculable/inclasificable de las presentaciones clínicas. De esta manera pareciera conformarse una dimensión de la experiencia analítica vinculada con la construcción colectiva de saberes. Experiencia diferente, pero no independiente de la configurada por la pregunta en transferencia, cuyos saberes se proponen que el psicoanálisis opere. Saberes, mecanismos y reglas técnicas que permitirán un cálculo posible, efecto mismo del intento de formalizar aquello que del caso por caso construye regularidad. Coordenadas del cálculo que, sin embargo, deberán dar lugar a lo incalculable. La teoría que orienta a la clínica psicoanalítica es derivada de las categorías diagnósticas de la clínica psiquiátrica. Tanto Freud como Lacan tienen como referencia dicha nosografía pero arriban a una teoría explicativa de lo que devendrá su propia clínica. Ahora bien, ¿cómo surge este saber sobre la clínica? Es de la clínica misma, de sus obstáculos bajo transferencia, que se elabora este saber determinado por la estructura de la experiencia analítica. Se vuelve así indisociable en el psicoanálisis, como plantea Colette Soler (2003-2004), la vertiente epistémica de la vertiente terapéutica: mediante la exploración del inconsciente, de los significantes, deseos y palabras que por él circulan, se obtienen modificaciones, se curan los síntomas. Intentaremos en este trabajo abordar aquello que se resiste a ser sistematizado de la técnica así como las dificultades que las 'patologías actuales' representan para la misma
Resumo:
Un plan cartográfico es un proceso contradictorio en el cual intervienen decisiones técnicas y políticas que pueden cambiar e incluso modificar los objetivos iniciales del plan. Sin embardo, la historiografía clásica de la cartografía sostiene que la toma de tales decisiones es el resultado de medidas únicamente científicas y técnicas en las que no existen intereses ni contradicciones políticas. En este trabajo intentamos rastrear -en las etapas de la producción cartográfica argentina- los momentos en los que la ciencia y la política se entrelazan de tal manera que son constitutivas de la ciencia cartográfica. Para ello tomamos los proyectos cartográficos del IGM: el Plan de la Carta y la Carta Militar Provisional; y la determinación geodésica del DATUM altimétrico que se llevó a cabo en torno a la Comisión para la Medición del Arco de Meridiano
Resumo:
One important task in the design of an antenna is to carry out an analysis to find out the characteristics of the antenna that best fulfills the specifications fixed by the application. After that, a prototype is manufactured and the next stage in design process is to check if the radiation pattern differs from the designed one. Besides the radiation pattern, other radiation parameters like directivity, gain, impedance, beamwidth, efficiency, polarization, etc. must be also evaluated. For this purpose, accurate antenna measurement techniques are needed in order to know exactly the actual electromagnetic behavior of the antenna under test. Due to this fact, most of the measurements are performed in anechoic chambers, which are closed areas, normally shielded, covered by electromagnetic absorbing material, that simulate free space propagation conditions, due to the absorption of the radiation absorbing material. Moreover, these facilities can be employed independently of the weather conditions and allow measurements free from interferences. Despite all the advantages of the anechoic chambers, the results obtained both from far-field measurements and near-field measurements are inevitably affected by errors. Thus, the main objective of this Thesis is to propose algorithms to improve the quality of the results obtained in antenna measurements by using post-processing techniques and without requiring additional measurements. First, a deep revision work of the state of the art has been made in order to give a general vision of the possibilities to characterize or to reduce the effects of errors in antenna measurements. Later, new methods to reduce the unwanted effects of four of the most commons errors in antenna measurements are described and theoretical and numerically validated. The basis of all them is the same, to perform a transformation from the measurement surface to another domain where there is enough information to easily remove the contribution of the errors. The four errors analyzed are noise, reflections, truncation errors and leakage and the tools used to suppress them are mainly source reconstruction techniques, spatial and modal filtering and iterative algorithms to extrapolate functions. Therefore, the main idea of all the methods is to modify the classical near-field-to-far-field transformations by including additional steps with which errors can be greatly suppressed. Moreover, the proposed methods are not computationally complex and, because they are applied in post-processing, additional measurements are not required. The noise is the most widely studied error in this Thesis, proposing a total of three alternatives to filter out an important noise contribution before obtaining the far-field pattern. The first one is based on a modal filtering. The second alternative uses a source reconstruction technique to obtain the extreme near-field where it is possible to apply a spatial filtering. The last one is to back-propagate the measured field to a surface with the same geometry than the measurement surface but closer to the AUT and then to apply also a spatial filtering. All the alternatives are analyzed in the three most common near-field systems, including comprehensive noise statistical analyses in order to deduce the signal-to-noise ratio improvement achieved in each case. The method to suppress reflections in antenna measurements is also based on a source reconstruction technique and the main idea is to reconstruct the field over a surface larger than the antenna aperture in order to be able to identify and later suppress the virtual sources related to the reflective waves. The truncation error presents in the results obtained from planar, cylindrical and partial spherical near-field measurements is the third error analyzed in this Thesis. The method to reduce this error is based on an iterative algorithm to extrapolate the reliable region of the far-field pattern from the knowledge of the field distribution on the AUT plane. The proper termination point of this iterative algorithm as well as other critical aspects of the method are also studied. The last part of this work is dedicated to the detection and suppression of the two most common leakage sources in antenna measurements. A first method tries to estimate the leakage bias constant added by the receiver’s quadrature detector to every near-field data and then suppress its effect on the far-field pattern. The second method can be divided into two parts; the first one to find the position of the faulty component that radiates or receives unwanted radiation, making easier its identification within the measurement environment and its later substitution; and the second part of this method is able to computationally remove the leakage effect without requiring the substitution of the faulty component. Resumen Una tarea importante en el diseño de una antena es llevar a cabo un análisis para averiguar las características de la antena que mejor cumple las especificaciones fijadas por la aplicación. Después de esto, se fabrica un prototipo de la antena y el siguiente paso en el proceso de diseño es comprobar si el patrón de radiación difiere del diseñado. Además del patrón de radiación, otros parámetros de radiación como la directividad, la ganancia, impedancia, ancho de haz, eficiencia, polarización, etc. deben ser también evaluados. Para lograr este propósito, se necesitan técnicas de medida de antenas muy precisas con el fin de saber exactamente el comportamiento electromagnético real de la antena bajo prueba. Debido a esto, la mayoría de las medidas se realizan en cámaras anecoicas, que son áreas cerradas, normalmente revestidas, cubiertas con material absorbente electromagnético. Además, estas instalaciones se pueden emplear independientemente de las condiciones climatológicas y permiten realizar medidas libres de interferencias. A pesar de todas las ventajas de las cámaras anecoicas, los resultados obtenidos tanto en medidas en campo lejano como en medidas en campo próximo están inevitablemente afectados por errores. Así, el principal objetivo de esta Tesis es proponer algoritmos para mejorar la calidad de los resultados obtenidos en medida de antenas mediante el uso de técnicas de post-procesado. Primeramente, se ha realizado un profundo trabajo de revisión del estado del arte con el fin de dar una visión general de las posibilidades para caracterizar o reducir los efectos de errores en medida de antenas. Después, se han descrito y validado tanto teórica como numéricamente nuevos métodos para reducir el efecto indeseado de cuatro de los errores más comunes en medida de antenas. La base de todos ellos es la misma, realizar una transformación de la superficie de medida a otro dominio donde hay suficiente información para eliminar fácilmente la contribución de los errores. Los cuatro errores analizados son ruido, reflexiones, errores de truncamiento y leakage y las herramientas usadas para suprimirlos son principalmente técnicas de reconstrucción de fuentes, filtrado espacial y modal y algoritmos iterativos para extrapolar funciones. Por lo tanto, la principal idea de todos los métodos es modificar las transformaciones clásicas de campo cercano a campo lejano incluyendo pasos adicionales con los que los errores pueden ser enormemente suprimidos. Además, los métodos propuestos no son computacionalmente complejos y dado que se aplican en post-procesado, no se necesitan medidas adicionales. El ruido es el error más ampliamente estudiado en esta Tesis, proponiéndose un total de tres alternativas para filtrar una importante contribución de ruido antes de obtener el patrón de campo lejano. La primera está basada en un filtrado modal. La segunda alternativa usa una técnica de reconstrucción de fuentes para obtener el campo sobre el plano de la antena donde es posible aplicar un filtrado espacial. La última es propagar el campo medido a una superficie con la misma geometría que la superficie de medida pero más próxima a la antena y luego aplicar también un filtrado espacial. Todas las alternativas han sido analizadas en los sistemas de campo próximos más comunes, incluyendo detallados análisis estadísticos del ruido con el fin de deducir la mejora de la relación señal a ruido lograda en cada caso. El método para suprimir reflexiones en medida de antenas está también basado en una técnica de reconstrucción de fuentes y la principal idea es reconstruir el campo sobre una superficie mayor que la apertura de la antena con el fin de ser capaces de identificar y después suprimir fuentes virtuales relacionadas con las ondas reflejadas. El error de truncamiento que aparece en los resultados obtenidos a partir de medidas en un plano, cilindro o en la porción de una esfera es el tercer error analizado en esta Tesis. El método para reducir este error está basado en un algoritmo iterativo para extrapolar la región fiable del patrón de campo lejano a partir de información de la distribución del campo sobre el plano de la antena. Además, se ha estudiado el punto apropiado de terminación de este algoritmo iterativo así como otros aspectos críticos del método. La última parte de este trabajo está dedicado a la detección y supresión de dos de las fuentes de leakage más comunes en medida de antenas. El primer método intenta realizar una estimación de la constante de fuga del leakage añadido por el detector en cuadratura del receptor a todos los datos en campo próximo y después suprimir su efecto en el patrón de campo lejano. El segundo método se puede dividir en dos partes; la primera de ellas para encontrar la posición de elementos defectuosos que radian o reciben radiación indeseada, haciendo más fácil su identificación dentro del entorno de medida y su posterior substitución. La segunda parte del método es capaz de eliminar computacionalmente el efector del leakage sin necesidad de la substitución del elemento defectuoso.
Resumo:
Esta tesis contiene una investigación detallada sobre las características y funcionamiento de las máquinas de medición por visión. El objetivo fundamental es modelar su comportamiento y dotarlas de trazabilidad metrológica bajo cualquier condición de medida. Al efecto, se ha realizado un exhaustivo análisis de los elementos que conforman su cadena de medición, a saber: sistema de iluminación, estructura, lentes y objetivos, cámara, software de tratamiento de imágenes y software de cálculo. Se han definido modelos físico-matemáticos, de desarrollo propio, capaces de simular con fiabilidad el comportamiento de los elementos citados, agrupados, a efectos de análisis numérico, en dos subsistemas denominados: de visión y mecánico. Se han implementado procedimientos de calibración genuinos para ambos subsistemas mediante el empleo de patrones ópticos. En todos los casos se ha podido determinar la incertidumbre asociada a los diferentes parámetros involucrados, garantizando la trazabilidad metrológica de los resultados. Los distintos modelos desarrollados han sido implementados en Matlab®. Se ha verificado su validez empleando valores sintéticos obtenidos a partir de simulaciones informáticas y también con imágenes reales capturadas en el laboratorio. El estudio experimental y validación definitiva de los resultados se ha realizado en el Laboratorio de Longitud del Centro Español de Metrología y en el Laboratorio de Metrología Dimensional de la ETS de Ingeniería y Diseño Industrial de la UPM. Los modelos desarrollados se han aplicado a dos máquinas de medición por visión de diferentes características constructivas y metrológicas. Empleando dichas máquinas se han medido distintas piezas, pertenecientes a los ámbitos mecánico y oftalmológico. Los resultados obtenidos han permitido la completa caracterización dimensional de dichas piezas y la determinación del cumplimiento de las especificaciones metrológicas en todos los casos, incluyendo longitudes, formas y ángulos. ABSTRACT This PhD thesis contains a detailed investigation of characteristics and performance of the optical coordinate measurement machines. The main goal is to model their behaviour and provide metrological traceability to them under any measurement conditions. In fact, a thorough analysis of the elements which form the measuring chain, i.e.: lighting system, structure, lenses and objectives, camera, image processing software and coordinate metrology software has conducted. Physical-mathematical models, of self-developed, able to simulate with reliability the behavior of the above elements, grouped, for the purpose of numerical analysis, in two subsystems called: “vision subsystem” and “mechanical subsystem”, have been defined. Genuine calibration procedures for both subsystems have been implemented by use of optical standards. In all cases, it has been possible to determine the uncertainty associated with the different parameters involved, ensuring metrological traceability of results. Different developed models have been implemented in Matlab®. Their validity has been verified using synthetic values obtained from computer simulations and also with real images captured in laboratory. The experimental study and final validation of the results was carried out in the Length Laboratory of “Centro Español de Metrología” and Dimensional Metrology Laboratory of the “Escuela Técnica Superior de Ingeniería y Diseño Industrial” of the UPM. The developed models have been applied to two optical coordinate measurement machines with different construction and metrological characteristics. Using such machines, different parts, belonging to the mechanical and ophthalmologist areas, have been measured. The obtained results allow the full dimensional characterization of such parts and determination of compliance with metrological specifications in all cases, including lengths, shapes and angles.
Resumo:
La nanotecnología es el estudio que la mayoría de veces es tomada como una meta tecnológica que nos ayuda en el área de investigación para tratar con la manipulación y el control en forma precisa de la materia con dimensiones comprendidas entre 1 y 100 nanómetros. Recordando que el prefijo nano proviene del griego vavoc que significa enano y corresponde a un factor de 10^-9, que aplicada a las unidades de longitud corresponde a una mil millonésima parte de un metro. Ahora sabemos que esta ciencia permite trabajar con estructuras moleculares y sus átomos, obteniendo materiales que exhiben fenómenos físicos, químicos y biológicos, muy distintos a los que manifiestan los materiales usados con una longitud mayor. Por ejemplo en medicina, los compuestos manométricos y los materiales nano estructurados muchas veces ofrecen una mayor eficacia con respecto a las formulaciones químicas tradicionales, ya que muchas veces llegan a combinar los antiguos compuestos con estos nuevos para crear nuevas terapias e inclusive han llegado a reemplazarlos, revelando así nuevas propiedades diagnósticas y terapéuticas. A su vez, la complejidad de la información a nivel nano es mucho mayor que en los niveles biológicos convencionales y, por tanto, cualquier flujo de trabajo en nano medicina requiere, de forma inherente, estrategias de gestión de información avanzadas. Muchos investigadores en la nanotecnología están buscando la manera de obtener información acerca de estos materiales nanométricos, para mejorar sus estudios que muchas veces lleva a probar estos métodos o crear nuevos compuestos para ayudar a la medicina actual, contra las enfermedades más poderosas como el cáncer. Pero en estos días es muy difícil encontrar una herramienta que les brinde la información específica que buscan en los miles de ensayos clínicos que se suben diariamente en la web. Actualmente, la informática biomédica trata de proporcionar el marco de trabajo que permita lidiar con estos retos de la información a nivel nano, en este contexto, la nueva área de la nano informática pretende detectar y establecer los vínculos existentes entre la medicina, la nanotecnología y la informática, fomentando así la aplicación de métodos computacionales para resolver las cuestiones y problemas que surgen con la información en la amplia intersección entre la biomedicina y la nanotecnología. Otro caso en la actualidad es que muchos investigadores de biomedicina desean saber y comparar la información dentro de los ensayos clínicos que contiene temas de nanotecnología en las diferentes paginas en la web por todo el mundo, obteniendo en si ensayos clínicos que se han creado en Norte América, y ensayos clínicos que se han creado en Europa, y saber si en este tiempo este campo realmente está siendo explotado en los dos continentes. El problema es que no se ha creado una herramienta que estime un valor aproximado para saber los porcentajes del total de ensayos clínicos que se han creado en estas páginas web. En esta tesis de fin de máster, el autor utiliza un mejorado pre-procesamiento de texto y un algoritmo que fue determinado como el mejor procesamiento de texto en una tesis doctoral, que incluyo algunas pruebas con muchos de estos para obtener una estimación cercana que ayudaba a diferenciar cuando un ensayo clínico contiene información sobre nanotecnología y cuando no. En otras palabras aplicar un análisis de la literatura científica y de los registros de ensayos clínicos disponibles en los dos continentes para extraer información relevante sobre experimentos y resultados en nano medicina (patrones textuales, vocabulario en común, descriptores de experimentos, parámetros de caracterización, etc.), seguido el mecanismo de procesamiento para estructurar y analizar dicha información automáticamente. Este análisis concluye con la estimación antes mencionada necesaria para comparar la cantidad de estudios sobre nanotecnología en estos dos continentes. Obviamente usamos un modelo de datos de referencia (gold standard) —un conjunto de datos de entrenamiento anotados manualmente—, y el conjunto de datos para el test es toda la base de datos de estos registros de ensayos clínicos, permitiendo distinguir automáticamente los estudios centrados en nano drogas, nano dispositivos y nano métodos de aquellos enfocados a testear productos farmacéuticos tradicionales.---ABSTRACT---Nanotechnology is the scientific study that usually is seen as a technological goal that helps us in the investigation field to deal with the manipulation and precise control of the matter with dimensions that range from 1 to 100 nanometers. Remembering that the prefix nano comes from the Greek word νᾶνος, meaning dwarf and denotes a factor of 10^-9, that applyied the longitude units is equal to a billionth of a meter. Now we know that this science allows us to work with molecular structures and their atoms, obtaining material that exhibit physical, chemical and biological phenomena very different to those manifesting in materials with a bigger longitude. As an example in medicine, the nanometric compounds and the materials in nano structures are often offered with more effectiveness regarding to the traditional chemical formulas. This is due to the fact that many occasions combining these old compounds with the new ones, creates new therapies and even replaced them, reveling new diagnostic and therapeutic properties. Even though the complexity of the information at nano level is greater than that in conventional biologic level and, thus, any work flow in nano medicine requires, in an inherent way, advance information management strategies. Many researchers in nanotechnology are looking for a way to obtain information about these nanometric materials to improve their studies that leads in many occasions to prove these methods or to create a new compound that helps modern medicine against powerful diseases, such as cancer. But in these days it is difficult to find a tool that searches and provides a specific information in the thousands of clinic essays that are uploaded daily on the web. Currently, the bio medic informatics tries to provide the work frame that will allow to deal with these information challenge in nano level. In this context, the new area of nano informatics pretends to detect and establish the existing links between medicine, nanotechnology and informatics, encouraging the usage of computational methods to resolve questions and problems that surge with the wide information intersection that is between biomedicine and nanotechnology. Another present case, is that many biomedicine researchers want to know and be able to compare the information inside those clinic essays that contains subjects of nanotechnology on the different webpages across the world, obtaining the clinic essays that has been done in North America and the essays done in Europe, and thus knowing if in this time, this field is really being exploited in both continents. In this master thesis, the author will use an enhanced text pre-processor with an algorithm that was defined as the best text processor in a doctoral thesis, that included many of these tests to obtain a close estimation that helps to differentiate when a clinic essay contains information about nanotechnology and when it does not. In other words, applying an analysis to the scientific literature and clinic essay available in both continents, in order to extract relevant information about experiments and the results in nano-medicine (textual patterns, common vocabulary, experiments descriptors, characterization parameters, etc.), followed by the mechanism process to structure and analyze said information automatically. This analysis concludes with the estimation, mentioned before, needed to compare the quantity of studies about nanotechnology in these two continents. Obviously we use a data reference model (Gold standard) – a set of training data manually annotated –, and the set of data for the test conforms the entire database of these clinic essay registers, allowing to distinguish automatically the studies centered on nano drugs, nano devices and nano methods of those focus on testing traditional pharmaceutical products.
Resumo:
Las enfermedades arteriales vienen presididas por la aterosclerosis, que es un proceso crónico de degeneración, que evoluciona hacia la obstrucción de la luz arterial. La pared de la arteria se engrosa debido al depósito de elementos grasos tales como el colesterol. Los stents intraluminales son diminutas estructuras tubulares autoexpandibles de malla de metal, que se colocan dentro de la arteria coronaria después de una angioplastia con balón para prevenir el cierre de dicha arteria. A pesar de estar diseñados para ser compatibles con el tejido humano, a menudo se da una reacción en cadena de consecuencias indeseables. La reestenosis intra-stent es un problema creciente debido al importante incremento que se ha producido en la utilización del stent intracoronario como forma de revascularización percutánea. Se habla de una incidencia global del 28%, siendo la causa principal de su aparición la proliferación neointimal a través de una compleja cascada de sucesos que pueden tardar meses en desarrollarse. Una de las reacciones más importantes es la trombosis o la formación de una fina capa de coágulo como respuesta a la presencia de un material extraño. Este proceso es multifactorial, y en él intervienen la regresión de la pared como consecuencia del estiramiento previo, la denudación endotelial, lo que permite la agregación plaquetaria, la proliferación neointimal, lo que facilita a los receptores de membrana desencadenar un proceso de agregación posterior y, por último, el remodelado negativo inadecuado de la pared, lo que produce pérdida de luz arterial. Se ha observado frecuentemente que el depósito de ateroma en la pared arterial está relacionado con el valor de los esfuerzos cortantes en la misma. Hay mayores probabilidades de engrosamiento de la pared en las zonas donde son bajos los esfuerzos cortantes, quizá por el mayor tiempo de residencia de las partículas circulantes por el torrente sanguíneo. Si nos centramos en la afirmación anterior, el siguiente paso sería buscar las zonas susceptibles de presentar un valor bajo de dichos esfuerzos. Las zonas potencialmente peligrosas son los codos y bifurcaciones, entre otras. Nos hemos centrado en una bifurcación coronaria, ya que los patrones de flujo que se suelen presentar, tales como recirculación y desprendimiento de vórtices están íntimamente relacionados con las técnicas de implantación de stents en esta zona. Proyectamos nuestros esfuerzos en el estudio de dos técnicas de implante, utilizando un único stent y una tercera a través de una configuración de culotte con el uso de dos stents. El primer caso trata de una bifurcación con un único stent en la rama principal cuyos struts cierran el orificio lateral que da salida a la rama secundaria de la bifurcación, es decir sería un stent sin orificio. El segundo consiste en un único stent también, pero con la diferencia de que éste presenta un orificio de comunicación con la rama lateral. Todas estas técnicas se aplicaron a bifurcaciones de 45º y de 90º. Introdujimos las geometrías -una vez confeccionadas con el código comercial Gambit- en el programa Ansys-Fluent contemplando régimen estacionario. Los resultados obtenidos fueron cotejados con los experimentales, que se realizaron paralelamente, con el fin de corroborarlos. Una vez validados, el estudio computacional ya contó con la fiabilidad suficiente como para abordar el régimen no estacionario, tanto en la versión de reposo como en la de ejercicio –hiperemia- El comportamiento reológico de la sangre para régimen no estacionario en estado de reposo es otra de las tareas abordadas, realizando una comparativa de los modelos Newtoniano, Carreau y Ley de Potencias. Finalmente, en una última etapa, debido a la reciente incursión de los stents diseñados específicamente frente a los convencionales, se aborda el comportamiento hemodinámico de los mismos. Concretamente, se comparó el patrón de flujo en un modelo de bifurcación coronaria con los nuevos stents (Stentys) y los convencionales. Se estudiaron cuatro modelos, a saber, stent simple en la rama principal, stent simple en la rama secundaria, culotte desplegando el primer stent en la rama principal y culotte desplegando el primer stent en la rama secundaria. La bifurcación estudiada presenta un ángulo de apertura de 45º y la relación de diámetros de las ramas hija se ajustaron de acuerdo a la ley de Finet. Se recogieron resultados experimentales en el laboratorio y se corrieron simulaciones numéricas con Ansys Fluent paralelamente. Las magnitudes que se tuvieron en cuenta con el fin de ubicar las regiones potencialmente ateroscleróticas fueron los esfuerzos cortantes, vorticidad y caída de presión. ABSTRACT Nowadays, restenosis after percutaneous dilation is the major drawback of coronary angioplasty. It represents a special form of atherosclerosis due to the healing process secondary to extensive vessel trauma induced after intracoronary balloon inflation. The use of coronary stents may decrease the incidence of this phenomenon. Unfortunately, intra-stent restenosis still occurs in 20-30% of the cases following the stent implantation. Most experiments suggest a correlation between low wall shear stress and wall thickness. The preferential locations for the atherosclerotic plaque are bifurcations. The objective of this work is to analyze the local hemodynamic changes caused in a coronary bifurcation by three different stenting techniques: simple stenting of the main vessel, simple stenting of the main vessel with kissing balloon in the side branch and culotte. To carry out this study an idealized geometry of a coronary bifurcation is used, and two bifurcation angles, 45º and 90º, are chosen as representative of the wide variety of real configurations. Both numerical simulations and experimental measurements are performed. First, steady simulations are carried out with the commercial code Ansys-Fluent, then, experimental measurements with PIV (Particle Image Velocimetry), obtained in the laboratory, are used to validate the numerical simulations. The steady computational simulations show a good overall agreement with the experimental data. Then, pulsatile flow is considered to take into account the transient effects. The time averaged wall shear stress, oscillatory shear index and pressure drop obtained numerically are used to compare the behavior of the stenting techniques. In a second step, the rheologic behavior of blood was considered comparing Newtonian, Carreau and Power Law models. Finally, as a result of previous investigations with conventional stents and after the recent emergence of several devices specifically designed for coronary bifurcations angioplasty, the hemodynamic performance of these new devices (Stentys) was compared to conventional ones and techniques in a coronary bifurcation model. Four different stenting techniques: simple stenting of the main vessel, simple stenting of the side vessel, culotte deploying the first stent in the main vessel and culotte deploying the first stent in the side vessel have been considered. To carry out this study an idealized geometry of a coronary bifurcation is used. A 45 degrees bifurcation angle is considered and the daughter branches diameters are obtained according to the Finet law. Both experiments in the laboratory and numerical simulations were used , focusing on important factors for the atherosclerosis development, like the wall shear stress, the oscillation shear index, the pressure loss and the vorticity.
Resumo:
Relatório de estágio para a obtenção do grau de mestre na especialidade de Educação pré-escolar
Resumo:
La evaluación es un proceso sistemático, continuo e integral destinado a determinar hasta qué punto han sido alcanzados los objetivos educativos. En ella se aúnan dos actividades fundamentales: medir y emitir juicios de valor a partir, de los datos. Sin embargo, a pesar de la claridad de estos conceptos la forma de evaluar a los alumnos todavía sigue plagada de importantes contradicciones entre los profesores, lo que manifiesta unas conductas didácticas alejadas de lo que debiera ser una pedagogía basada en la evidencia. El objetivo de este trabajo es evidenciar las citadas discrepancias, entre los agentes del proceso de enseñanza aprendizaje (alumnos y profesores), a la hora de elaborar, realizar y calificar las pruebas de evaluación (“exámenes”) de los alumnos de varias disciplinas relacionadas con la Biomedicina. La metodología empleada ha consistido en aplicar a los estudiantes un sencillo cuestionario con preguntas de elección múltiple. A partir de los resultados, se pretende reflexionar sobre conjunto de criterios sólidos que permitan realizar las evaluaciones de los alumnos con mayor validez, fiabilidad, objetividad y pertinencia, como recomienda la OMS en su Guía Pedagógica para el Personal de Salud.
Resumo:
Trabalho Final do Curso de Mestrado Integrado em Medicina, Faculdade de Medicina, Universidade de Lisboa, 2014
Resumo:
Relatório de estágio para a obtenção do grau de mestre na especialidade de Educação pré-escolar
Resumo:
La fusión de imágenes es un proceso que permite obtener una nueva imagen en base a la información que tienen dos o más imágenes, las cuales poseen distinta información de la misma escena, que se combina convenientemente en la nueva imagen fusionada. Para poder obtener esta imagen resultante se utilizan diversas técnicas, requiriéndose identificar las métricas más apropiadas que permitan determinar aquella técnica o técnicas que proporcionen el mejor resultado en términos de calidad de la nueva imagen con la información fusionada. Por tal motivo en el presente trabajo, se realiza un análisis comparativo sobre diversas técnicas de fusión, a saber: promedio simple, máximo/ mínimo valor, análisis de componentes principales, transformada de wavelets y pirámides laplaciana (contraste y morfológica). Cada una de ellas presenta un proceso distinto para el tratamiento de los píxeles correspondientes a las imágenes. Así mismo, se han seleccionado las siguientes métricas cuantitativas para verificar la calidad de las imágenes resultantes fusionadas: error cuadrático medio, relación señal a ruido de pico, contenido estructural, diferencia promedio, correlación cruzada normalizada y entropía.
Resumo:
Este documento presenta la estimación de la demanda trimestral por emisión monetaria mediante tres técnicas estadísticas, a saber: mínimos cuadrados ordinarios, corrección de errores y vectores autorregresivos. La estimación de la demanda se realizó para el periodo 1987–1997. En general las ecuaciones estimadas presentaron resultados satisfactorios en términos económicos y estadísticos. La capacidad de predicción se verificó con los bajos errores de pronóstico, inferiores al 3% para 1997. Se comprobó la estabilidad de la demanda de corto y largo plazo mediante los estadísticos Cusum y Cusum-Cuadrado, así como con la prueba de cointegración de Johansen.
Resumo:
La informática, es aplicada a la mayoría de apartados de las ciencias (Medicina, ingeniería, climatología, etc.); las ciencias económicas no es la excepción, dentro de ésta, se encuentra el área sobre la cual se fundamenta el interés de la investigación, a saber: la forma de obtención y documentación de evidencias virtuales al realizar procedimientos de auditoría en empresas que se dedican al comercio electrónico. Debido a esta nueva forma de comercializar, surge la inquietud en cuanto a cómo documentar y sustentar esta evidencia, por tanto el objetivo de este trabajo de investigación es proponer una guía objetiva que proporcione técnicas y procedimientos para realizar una auditoría de seguridad en empresas dedicadas al comercio electrónico con el fin de obtener evidencias virtuales, entendidas estas como evidencias que están vinculadas con operaciones de comercio electrónico y no por el hecho de su materialidad. Para obtener la información que sustentó este trabajo se realizó una investigación Bibliográfica y de campo, utilizando las técnicas de entrevistas, encuesta, observación, y para ellas se aplicaron guías de observación, cuestionarios y narrativas de las mismas. Se definió que la estructura de las empresas dedicadas al comercio electrónico pueden ser de dos formas: Tienda virtuales y Canal virtual. En base al estudio realizado se concluye que las áreas de seguridad a cubrir son: logística de operaciones, en red, en información de clientes y en lógica y física, estos aspectos son esenciales en una auditoria a un E-commerce, puesto que de ella depende en gran medida la confianza, que los clientes o potenciales consumidores, puedan depositar en la organización. Es necesario tener en cuenta que el factor significativo tanto para el comercio como para el auditor es la confianza que el público pueda depositar en la empresa y en la firma de auditoría, máxime en los países en vías de desarrollo como El Salvador, donde los consumidores aún no están familiarizados con este prototipo de negocios, a consecuencia, obviamente, de los atrasos tecnológicos y educacionales de la población. Por tanto los auditores y las firmas de auditoría, deben jugar un papel preponderante, en cuanto al avance y al auge que tiene y pueda tener el E-commerce en el país, siendo estos, los proveedores y garantes de este factor significativo al cual se le ha denominado confianza, que asegura las expectativas de los consumidores ante este modelo de negocio del futuro, que comienza a forjarse en este presente al cual no somos ajenos. Por lo tanto se recomienda que para enfrentarse a estos nuevos desafíos, se requiere que el auditor esté altamente calificado para realizar su trabajo de proveer confianza al público, así se ha querido dar una herramienta útil, producto de una investigación cuidadosa, que contienen los puntos básico y esenciales de una auditoria de seguridad para este arquetipo de negocios, con lo cual no se pretende acabar el tema en cuestión. En consecuencia, se sugiere que se tomen en cuenta las herramientas proporcionadas en este trabajo al realizar una auditoria de esta naturaleza.
Resumo:
En el ámbito de las estructuras ordenadas, Ø. Ore introdujo en 1944 el concepto de conexión de Galois como un par de funciones antítonas entre dos conjuntos parcialmente ordenados, generalizando así la teoría de polaridades entre retículos completos. Este concepto supone una generalización de la correspondencia subgrupo-subcuerpo que se describe en el clásico Teorema Fundamental de la Teoría de Galois, de ahí el origen del término. Años más tarde, J. Schmidt mantuvo la terminología de conexión de Galois, pero cambió las funciones antítonas por funciones isótonas, lo cual favoreció la aplicabilidad de este concepto a Computación. El término adjunción fue introducido en 1958 por D. M. Kan. Originalmente fueron definidas en un contexto categórico y tal vez debido a esto, pueden encontrarse gran cantidad de ejemplos de adjunciones en varias áreas de investigación, que van desde las más teóricas a las más aplicadas. En 1965, Lotfi Zadeh introduce la Teoría de Conjuntos Difusos. En su trabajo se aborda definitivamente el problema del modelado matemático de la ambigüedad, con la definición de conjunto difuso X en un universo U como una aplicación X: U→ [0,1] que asocia a cada elemento u del conjunto U un valor del intervalo real [0,1] y donde X(u) representa el grado de pertenencia de u al conjunto difuso X. El término conexión de Galois difusa fue introducido por R. Belohlávek como un par de aplicaciones definidas entre los conjuntos de conjuntos difusos definidos sobre dos universos. Desde entonces, en el ámbito de la lógica difusa, se pueden encontrar numerosos artículos en los cuales se estudian las conexiones de Galois difusas desde un punto de vista algebraico y abstracto. El objetivo principal de este trabajo es estudiar y caracterizar, a partir de una aplicación f: A→ B desde un conjunto A dotado con una determinada estructura hasta un conjunto B no necesariamente dotado de estructura, las situaciones en las cuales se pueda definir una estructura en B similar a la de A, de forma que además se pueda construir una aplicación g: B→ A tal que el par (f,g) sea una adjunción (conexión de Galois isótona). Se considera el conjunto A dotado con un orden parcial y se realiza la descomposición canónica de la función f a través del conjunto cociente de A con respecto a la relación núcleo. Partiendo del problema inicial de deducir las condiciones necesarias y suficientes para la existencia de un orden parcial en B y para la definición de un adjunto por la derecha de f, con esta descomposición canónica se pretende dividir la cuestión en tres problemas más simples, a saber, la construcción de un orden en el codominio y un adjunto por la derecha para cada una de las aplicaciones que forman parte de la citada descomposición. Esto resuelve la cuestión planteada para el caso de funciones que son sobreyectivas. Para el caso general, es necesario analizar previamente cómo extender una relación de preorden definida sobre un subconjunto de un conjunto dado a dicho conjunto, así como la definición de un adjunto por la derecha para la inclusión natural del subconjunto dentro del conjunto. Se continua la investigación considerando el conjunto A dotado con un preorden, en este caso la ausencia de la propiedad antisimétrica hace necesario utilizar la denominada relación p-núcleo, que es el cierre transitivo de la unión de la relación núcleo y la relación de equivalencia núcleo simétrico. Asimismo, el hecho de que no se tenga unicidad para el máximo o el mínimo de un subconjunto, conduce a trabajar con relaciones definidas en el conjunto de partes de un conjunto (concretamente, con el preorden de Hoare). Todo ello hace aumentar la dificultad en la búsqueda de las condiciones necesarias y suficientes para la existencia de una relación de preorden en el codominio y la existencia de un adjunto por la derecha. Se finaliza esta sección con el análisis de la unicidad del adjunto por la derecha y del orden parcial (preorden) definido sobre el codominio. Después del estudio anterior, se introducen los denominados operadores y sistemas de ≈-cierre en conjuntos preordenados y se analiza la relación existente entre ambos (que deja de ser biunívoca, como sucede en el caso de órdenes parciales). Se trabaja con la noción de compatibilidad respecto a una relación de equivalencia y se caracteriza la construcción de adjunciones entre conjuntos preordenados en términos de la existencia de un sistema de ≈-cierre compatible con la relación núcleo. En una segunda parte de la tesis, se aportan las definiciones de las nociones de adjunción difusa, co-adjunción difusa y conexiones de Galois difusas por la derecha y por la izquierda entre conjuntos con preórdenes difusos. Además se presentan las distintas caracterizaciones de los conceptos anteriormente señalados, así como las relaciones entre ellos. Se aborda la construcción de adjunciones entre conjuntos con órdenes difusos, utilizando de nuevo la relación núcleo, en su versión difusa, y la descomposición canónica de la función de partida respecto a ella. El teorema principal de esta sección recoge una caracterización para la definición de una relación difusa de orden sobre el codominio B y un adjunto por la derecha para f:(A, ρA) → B donde (A, ρA) es un conjunto con un orden difuso. El estudio del problema anterior entre conjuntos con preórdenes difusos, hace necesario trabajar con la relación difusa denominada p-núcleo. También es preciso definir un preorden difuso en el conjunto de partes de un conjunto para describir las condiciones bajo las que es posible la construcción de una adjunción. Se finaliza proponiendo la definición de sistema de cierre en un conjunto con un preorden difuso y algunas caracterizaciones más manejables. También se trabaja con los operadores de cierre definidos en un conjunto con un preorden difuso y se analiza la relación con los sistemas de cierre. Todo ello encaminado a caracterizar la construcción de un adjunto por la derecha y un preorden difuso sobre el codominio B de una de una aplicación f:(A, ρA) → B, donde ρA es un preorden difuso sobre A.