992 resultados para 120601 Construcción de algoritmos
Resumo:
Dada la importancia que hoy día presenta dentro del ámbito de la óptica, la implementación y conocimiento de dispositivos capaces tanto de generar aberraciones ópticas bien caracterizadas como de censarlas, se presenta a lo largo de este trabajo el desarrollo de una interfaz gráfica en MATLAB, que permita simular el funcionamiento tanto de un sensor de frente de onda de Hartamnn-Shack (HS), así como la simulación de dispositivos capaces de modificar frentes de onda como los SLM, adicionando algoritmos de propagación y cálculo de centroides -- Para ello, se implementarán en primer lugar máscaras de fase que generen frentes de onda aberrados a partir de la modulación en fase de moduladores espaciales de luz o SLM, tanto a través de funciones lente de primer orden en representación de las aberraciones constantes, como de fase cuadrática en representación de las aberraciones de bajo orden y adicionalmente como combinaciones lineales de polinomios de Zernike -- Todo lo anterior se simulará teniendo en cuenta las características técnicas de los SLM, como lo son el número de pixeles en x y en y, el tamaño de estos y la curva de calibración de los moduladores espaciales, tanto para una relación lineal como para una relación no lineal -- Posteriormente se simularán las dos propagaciones sufridas por los haces de luz desde el SLM hasta el CCD (dispositivo de carga acoplada), pasando a través de la matriz de multilentes del HS (MLA), a partir de la implementación de algoritmos de propagación de un solo paso, que nos permitirán observar sobre el plano del CDD el mapa de spots necesario para el censado de las superficies -- Continuaremos con la construcción de algoritmos para determinar los centroides de dicho mapa y sus respectivas coordenadas, seguiremos con la implementación de algoritmos de reconstrucción modal empleados por sensores de frente de onda de Hartmann-Shack, y finalmente compararemos el grado de error existente entre las superficies generadas y las superficies censadas a través del cálculo de su error cuadrático medio
Resumo:
Los problemas de corte y empaquetado son una familia de problemas de optimización combinatoria que han sido ampliamente estudiados en numerosas áreas de la industria y la investigación, debido a su relevancia en una enorme variedad de aplicaciones reales. Son problemas que surgen en muchas industrias de producción donde se debe realizar la subdivisión de un material o espacio disponible en partes más pequeñas. Existe una gran variedad de métodos para resolver este tipo de problemas de optimización. A la hora de proponer un método de resolución para un problema de optimización, es recomendable tener en cuenta el enfoque y las necesidades que se tienen en relación al problema y su solución. Las aproximaciones exactas encuentran la solución óptima, pero sólo es viable aplicarlas a instancias del problema muy pequeñas. Las heurísticas manejan conocimiento específico del problema para obtener soluciones de alta calidad sin necesitar un excesivo esfuerzo computacional. Por otra parte, las metaheurísticas van un paso más allá, ya que son capaces de resolver una clase muy general de problemas computacionales. Finalmente, las hiperheurísticas tratan de automatizar, normalmente incorporando técnicas de aprendizaje, el proceso de selección, combinación, generación o adaptación de heurísticas más simples para resolver eficientemente problemas de optimización. Para obtener lo mejor de estos métodos se requiere conocer, además del tipo de optimización (mono o multi-objetivo) y el tamaño del problema, los medios computacionales de los que se dispone, puesto que el uso de máquinas e implementaciones paralelas puede reducir considerablemente los tiempos para obtener una solución. En las aplicaciones reales de los problemas de corte y empaquetado en la industria, la diferencia entre usar una solución obtenida rápidamente y usar propuestas más sofisticadas para encontrar la solución óptima puede determinar la supervivencia de la empresa. Sin embargo, el desarrollo de propuestas más sofisticadas y efectivas normalmente involucra un gran esfuerzo computacional, que en las aplicaciones reales puede provocar una reducción de la velocidad del proceso de producción. Por lo tanto, el diseño de propuestas efectivas y, al mismo tiempo, eficientes es fundamental. Por esta razón, el principal objetivo de este trabajo consiste en el diseño e implementación de métodos efectivos y eficientes para resolver distintos problemas de corte y empaquetado. Además, si estos métodos se definen como esquemas lo más generales posible, se podrán aplicar a diferentes problemas de corte y empaquetado sin realizar demasiados cambios para adaptarlos a cada uno. Así, teniendo en cuenta el amplio rango de metodologías de resolución de problemas de optimización y las técnicas disponibles para incrementar su eficiencia, se han diseñado e implementado diversos métodos para resolver varios problemas de corte y empaquetado, tratando de mejorar las propuestas existentes en la literatura. Los problemas que se han abordado han sido: el Two-Dimensional Cutting Stock Problem, el Two-Dimensional Strip Packing Problem, y el Container Loading Problem. Para cada uno de estos problemas se ha realizado una amplia y minuciosa revisión bibliográfica, y se ha obtenido la solución de las distintas variantes escogidas aplicando diferentes métodos de resolución: métodos exactos mono-objetivo y paralelizaciones de los mismos, y métodos aproximados multi-objetivo y paralelizaciones de los mismos. Los métodos exactos mono-objetivo aplicados se han basado en técnicas de búsqueda en árbol. Por otra parte, como métodos aproximados multi-objetivo se han seleccionado unas metaheurísticas multi-objetivo, los MOEAs. Además, para la representación de los individuos utilizados por estos métodos se han empleado codificaciones directas mediante una notación postfija, y codificaciones que usan heurísticas de colocación e hiperheurísticas. Algunas de estas metodologías se han mejorado utilizando esquemas paralelos haciendo uso de las herramientas de programación OpenMP y MPI.
Resumo:
Se estudia la comprensión de los alumnos de los conceptos estadísticos y el apoyo que para dicho proceso pueden ofrecer los equipos informáticos. El objetivo es analizar la capacidad de los alumnos para establecer o descartar la relación entre pares de variables aleatorias y su comprensión de dichas asociaciones. Para ello se comprueba si la capacidad de resolución de problemas utilizando elementos informáticos hace innecesario el conocimiento de los algoritmos concretos de resolución.
Resumo:
Este proyecto se enmarca dentro de la Computación Simbólica y de los fundamentos matemáticos del Diseño Geométrico Asistido por ordenador (CAGD). Se abordara uno de los problemas principales en el ámbito del CAGD y que es la manipulación de las Curvas Concoide. La importancia del avance en la manipulación de las curvas concoide radica en el papel fundamental que desempeñan en múltiples aplicaciones en la actualidad dentro de campos de diversa índole tales como la medicina, la óptica, el electromagnetismo, la construcción, etc. El objetivo principal de este proyecto es el diseño e implementación de algoritmos para el estudio, cálculo y manipulación de curvas concoides, utilizando técnicas propias del Calculo Simbólico. Esta implementación se ha programado utilizando el sistema de computación simbólica Maple. El proyecto consiste en dos partes bien diferenciadas, una parte teórica y otra más practica. La primera incluye la descripción geométrica y definición formal de curvas concoide, así como las ideas y propiedades básicas. De forma más precisa, se presenta un estudio matemático sobre el análisis de racionalidad de estas curvas, explicando los algoritmos que serán implementados en las segunda parte, y que constituye el objetivo principal de este proyecto. Para cerrar esta parte, se presenta una pequeña introducción al sistema y a la programación en Maple. Por otro lado, la segunda parte de este proyecto es totalmente original, y en ella el autor desarrolla las implementaciones en Maple de los algoritmos presentados en la parte anterior, así como la creación de un paquete Maple que las recoge. Por último, se crean las paginas de ayudas en el sistema Maple para la correcta utilización del paquete matemático anteriormente mencionado. Una vez terminada la parte de implementación, se aplican los algoritmos implementados a una colección de curvas clásicas conocidas, recogiendo los datos y resultados obtenidos en un atlas de curvas. Finalmente, se presenta una recopilación de las aplicaciones más destacadas en las que las concoides desempeñan un papel importante así como una breve reseña sobre las concoides de superficies, objeto de varios estudios en la actualidad y a los que se considera que el presente proyecto les puede resultar de gran utilidad. Abstract This project is set up in the framework of Symbolic Computation as well as in the implementation of algebraic-geometric problems that arise from Computer Aided Geometric Design (C.A.G.D.) applications. We address problems related to conchoid curves. The importance of these curves is the fundamental role that they play in current applications as medicine, optics, electromagnetism, construction, etc. The main goal of this project is to design and implement some algorithms to solve problems in studying, calculating and generating conchoid curves with symbolic computation techniques. For this purpose, we program our implementations in the symbolic system “Maple". The project consists of two differentiated parts, one more theoretical part and another part more practical. The first one includes the description of conchoid curves as well as the basic ideas about the concept and its basic properties. More precisely, we introduce in this part the mathematical analysis of the rationality of the conchoids, and we present the algorithms that will be implemented. Furthermore, the reader will be brie y introduced in Maple programming. On the other hand, the second part of this project is totally original. In this more practical part, the author presents the implemented algorithms and a Maple package that includes them, as well as their help pages. These implemented procedures will be check and illustrated with some classical and well known curves, collecting the main properties of the conchoid curves obtained in a brief atlas. Finally, a compilation of the most important applications where conchoids play a fundamental role, and a brief introduction to the conchoids of surfaces, subject of several studies today and where this project could be very useful, are presented.
Resumo:
El importante desarrollo tecnológico e industrial surgido especialmente durante la segunda mitad del siglo pasado ha eliminado las históricas limitaciones técnicas en el ámbito de los pro-? yectos arquitectónicos, desembocando en la situación actual en la que cualquier planteamiento formal puede ser analizado desde un punto de vista estructural, concluyéndose por tanto que ha desaparecido la barrera del análisis en lo que al desarrollo de un proyecto arquitectónico se refiere. En la actualidad, al igual que a finales del siglo XIX, nos encontramos en un periodo de transi-? ción, y también, como entonces, es la tecnología la que orienta el cambio. No la tecnología de los nuevos materiales (hormigón y acero) como sucedía tras la revolución industrial sino que es la nueva tecnología digital aplicada a los sistemas de diseño, cálculo y fabricación la que están siendo el motor de la actual transformación. Hoy no es tanto el paradigma mecanicista el que prevalece en muchos casos en la concepción de los edificios sino que, nuevos elementos como la tecnología digital integrada está cambiando la forma de diseñar y concebir el entorno cons-? truido. Ante este contexto cabría plantearse las siguientes cuestiones: ¿Puede el diseño paramétrico y la tecnología CAD-?CAM-?CAE en conjunción con los programas actuales de análisis estructural basados en el Método de los Elementos Finitos hacer más sencilla la construcción de estructu-? ras ligeras y eficientes hoy en día? ¿Puede la tecnología digital ayudar a ampliar el abanico for-? mal a la hora de diseñar edificios y a la vez permitir el uso de sistemas estructurales racionales que optimicen el consumo de materiales bajo dichas circunstancias?
Resumo:
A lo largo del presente trabajo se investiga la viabilidad de la descomposición automática de espectros de radiación gamma por medio de algoritmos de resolución de sistemas de ecuaciones algebraicas lineales basados en técnicas de pseudoinversión. La determinación de dichos algoritmos ha sido realizada teniendo en cuenta su posible implementación sobre procesadores de propósito específico de baja complejidad. En el primer capítulo se resumen las técnicas para la detección y medida de la radiación gamma que han servido de base para la confección de los espectros tratados en el trabajo. Se reexaminan los conceptos asociados con la naturaleza de la radiación electromagnética, así como los procesos físicos y el tratamiento electrónico que se hallan involucrados en su detección, poniendo de relieve la naturaleza intrínsecamente estadística del proceso de formación del espectro asociado como una clasificación del número de detecciones realizadas en función de la energía supuestamente continua asociada a las mismas. Para ello se aporta una breve descripción de los principales fenómenos de interacción de la radiación con la materia, que condicionan el proceso de detección y formación del espectro. El detector de radiación es considerado el elemento crítico del sistema de medida, puesto que condiciona fuertemente el proceso de detección. Por ello se examinan los principales tipos de detectores, con especial hincapié en los detectores de tipo semiconductor, ya que son los más utilizados en la actualidad. Finalmente, se describen los subsistemas electrónicos fundamentales para el acondicionamiento y pretratamiento de la señal procedente del detector, a la que se le denomina con el término tradicionalmente utilizado de Electrónica Nuclear. En lo que concierne a la espectroscopia, el principal subsistema de interés para el presente trabajo es el analizador multicanal, el cual lleva a cabo el tratamiento cualitativo de la señal, y construye un histograma de intensidad de radiación en el margen de energías al que el detector es sensible. Este vector N-dimensional es lo que generalmente se conoce con el nombre de espectro de radiación. Los distintos radionúclidos que participan en una fuente de radiación no pura dejan su impronta en dicho espectro. En el capítulo segundo se realiza una revisión exhaustiva de los métodos matemáticos en uso hasta el momento ideados para la identificación de los radionúclidos presentes en un espectro compuesto, así como para determinar sus actividades relativas. Uno de ellos es el denominado de regresión lineal múltiple, que se propone como la aproximación más apropiada a los condicionamientos y restricciones del problema: capacidad para tratar con espectros de baja resolución, ausencia del concurso de un operador humano (no supervisión), y posibilidad de ser soportado por algoritmos de baja complejidad capaces de ser instrumentados sobre procesadores dedicados de alta escala de integración. El problema del análisis se plantea formalmente en el tercer capítulo siguiendo las pautas arriba mencionadas y se demuestra que el citado problema admite una solución en la teoría de memorias asociativas lineales. Un operador basado en este tipo de estructuras puede proporcionar la solución al problema de la descomposición espectral deseada. En el mismo contexto, se proponen un par de algoritmos adaptativos complementarios para la construcción del operador, que gozan de unas características aritméticas especialmente apropiadas para su instrumentación sobre procesadores de alta escala de integración. La característica de adaptatividad dota a la memoria asociativa de una gran flexibilidad en lo que se refiere a la incorporación de nueva información en forma progresiva.En el capítulo cuarto se trata con un nuevo problema añadido, de índole altamente compleja. Es el del tratamiento de las deformaciones que introducen en el espectro las derivas instrumentales presentes en el dispositivo detector y en la electrónica de preacondicionamiento. Estas deformaciones invalidan el modelo de regresión lineal utilizado para describir el espectro problema. Se deriva entonces un modelo que incluya las citadas deformaciones como una ampliación de contribuciones en el espectro compuesto, el cual conlleva una ampliación sencilla de la memoria asociativa capaz de tolerar las derivas en la mezcla problema y de llevar a cabo un análisis robusto de contribuciones. El método de ampliación utilizado se basa en la suposición de pequeñas perturbaciones. La práctica en el laboratorio demuestra que, en ocasiones, las derivas instrumentales pueden provocar distorsiones severas en el espectro que no pueden ser tratadas por el modelo anterior. Por ello, en el capítulo quinto se plantea el problema de medidas afectadas por fuertes derivas desde el punto de vista de la teoría de optimización no lineal. Esta reformulación lleva a la introducción de un algoritmo de tipo recursivo inspirado en el de Gauss-Newton que permite introducir el concepto de memoria lineal realimentada. Este operador ofrece una capacidad sensiblemente mejorada para la descomposición de mezclas con fuerte deriva sin la excesiva carga computacional que presentan los algoritmos clásicos de optimización no lineal. El trabajo finaliza con una discusión de los resultados obtenidos en los tres principales niveles de estudio abordados, que se ofrecen en los capítulos tercero, cuarto y quinto, así como con la elevación a definitivas de las principales conclusiones derivadas del estudio y con el desglose de las posibles líneas de continuación del presente trabajo.---ABSTRACT---Through the present research, the feasibility of Automatic Gamma-Radiation Spectral Decomposition by Linear Algebraic Equation-Solving Algorithms using Pseudo-Inverse Techniques is explored. The design of the before mentioned algorithms has been done having into account their possible implementation on Specific-Purpose Processors of Low Complexity. In the first chapter, the techniques for the detection and measurement of gamma radiation employed to construct the spectra being used throughout the research are reviewed. Similarly, the basic concepts related with the nature and properties of the hard electromagnetic radiation are also re-examined, together with the physic and electronic processes involved in the detection of such kind of radiation, with special emphasis in the intrinsic statistical nature of the spectrum build-up process, which is considered as a classification of the number of individual photon-detections as a function of the energy associated to each individual photon. Fbr such, a brief description of the most important matter-energy interaction phenomena conditioning the detection and spectrum formation processes is given. The radiation detector is considered as the most critical element in the measurement system, as this device strongly conditions the detection process. Fbr this reason, the characteristics of the most frequent detectors are re-examined, with special emphasis on those of semiconductor nature, as these are the most frequently employed ones nowadays. Finally, the fundamental electronic subsystems for preaconditioning and treating of the signal delivered by the detector, classically addresed as Nuclear Electronics, is described. As far as Spectroscopy is concerned, the subsystem most interesting for the scope covered by the present research is the so-called Multichannel Analyzer, which is devoted to the cualitative treatment of the signal, building-up a hystogram of radiation intensity in the range of energies in which the detector is sensitive. The resulting N-dimensional vector is generally known with the ñame of Radiation Spectrum. The different radio-nuclides contributing to the spectrum of a composite source will leave their fingerprint in the resulting spectrum. Through the second chapter, an exhaustive review of the mathematical methods devised to the present moment to identify the radio-nuclides present in the composite spectrum and to quantify their relative contributions, is reviewed. One of the more popular ones is the so-known Múltiple Linear Regression, which is proposed as the best suited approach according to the constraints and restrictions present in the formulation of the problem, i.e., the need to treat low-resolution spectra, the absence of control by a human operator (un-supervision), and the possibility of being implemented as low-complexity algorithms amenable of being supported by VLSI Specific Processors. The analysis problem is formally stated through the third chapter, following the hints established in this context, and it is shown that the addressed problem may be satisfactorily solved under the point of view of Linear Associative Memories. An operator based on this kind of structures may provide the solution to the spectral decomposition problem posed. In the same context, a pair of complementary adaptive algorithms useful for the construction of the solving operator are proposed, which share certain special arithmetic characteristics that render them specially suitable for their implementation on VLSI Processors. The adaptive nature of the associative memory provides a high flexibility to this operator, in what refers to the progressive inclusión of new information to the knowledge base. Through the fourth chapter, this fact is treated together with a new problem to be considered, of a high interest but quite complex nature, as is the treatment of the deformations appearing in the spectrum when instrumental drifts in both the detecting device and the pre-acconditioning electronics are to be taken into account. These deformations render the Linear Regression Model proposed almost unuseful to describe the resulting spectrum. A new model including the drifts is derived as an extensión of the individual contributions to the composite spectrum, which implies a simple extensión of the Associative Memory, which renders this suitable to accept the drifts in the composite spectrum, thus producing a robust analysis of contributions. The extensión method is based on the Low-Amplitude Perturbation Hypothesis. Experimental practice shows that in certain cases the instrumental drifts may provoke severe distortions in the resulting spectrum, which can not be treated with the before-mentioned hypothesis. To cover also these less-frequent cases, through the fifth chapter, the problem involving strong drifts is treated under the point of view of Non-Linear Optimization Techniques. This reformulation carries the study to the consideration of recursive algorithms based on the Gauss-Newton methods, which allow the introduction of Feed-Back Memories, computing elements with a sensibly improved capability to decompose spectra affected by strong drifts. The research concludes with a discussion of the results obtained in the three main levéis of study considerad, which are presented in chapters third, fourth and fifth, toghether with the review of the main conclusions derived from the study and the outline of the main research lines opened by the present work.
Resumo:
Resumen: El valor estético de la Crónica de tres reyes siempre ha sido puesto en entredicho a raíz de su estilo neutro que contrasta con el de otras obras del género, como ser las crónicas de Alfonso X y las de Pero López de Ayala. El presente trabajo se encarga de estudiar los procedimientos narrativos a través de los cuales algunos de sus personajes son confi gurados en función de asignar a la trama de los acontecimientos un determinado sentido político que se distancia de otras versiones de los hechos que circulaban en el período, como por ejemplo la "Historia hasta 1288 dialogada".
Resumo:
El sector de la construcción es un importante generador de oportunidades laborales, en particular para las personas con menor formación y que viven en condiciones de pobreza. A pesar de contar desde mucho tiempo atrás con un régimen laboral especial que pretende atender las particularidades de la actividad, en los hechos la elevada informalidad existente lleva a que el sistema de protección opere como un dispositivo de selección adversa que otorga cobertura a muy pocos trabajadores. La construcción se vería especialmente beneficiada con un Estatuto Especial para microempresas como el que se propusiera en el informe “Empleo y Desarrollo Social” Nro. 25 (abril de 2010)
Resumo:
Resumen: El propósito del trabajo que presentamos a continuación es abordar la violencia como un aspecto de la construcción discursiva del rebelde musulmán y de la rebelión en al-Andalus entre los siglos VIII y X. En las elaboraciones históricas de los confl ictos sociales que marcaron la construcción del Estado omeya, los episodios violentos infl igidos a rebeldes políticos son un lugar común, pero la violencia como práctica también se encuentra presente explícita o implícitamente en el lenguaje utilizado en dichos discursos. De esta manera, nuestro análisis se centrará en aquellas palabras que contengan evaluaciones positivas o negativas de la fi gura del rebelde y de la rebelión en una de las crónicas históricas más tempranas de al-Andalus, el Ta’rīj iftitāh Al-Andalus de Ibn al-Qūtiyya.
Resumo:
El artículo intenta estudiar, tanto en el Poema de Alfonso Onceno como en la Gran Crónica de Alfonso XI, cómo el dispositivo discursivo legendario se utiliza con un fin propagandístico de la figura del rey, pues se destina principalmente a exaltarlo no sólo en cuanto a su triunfo en la sumisión de los nobles levantiscos sino también a su éxito en las campañas militares contra los musulmanes.
Resumo:
Resumen: El modelo de la Muestra de la Información sostiene que la probabilidad de que cierta información sea mencionada en un grupo es mayor si se encuentra disponible en muchos miembros que en uno solo. La información compartida en la matriz de creencias preexistente a la interacción social, tiene mayor probabilidad de ser expresada, repetida y validada por consentimiento e influye en el producto grupal. Objetivos: cuantificar el impacto de la matriz de creencias compartidas en los procesos de negociación de significados y comprender cualitativamente este proceso. Sujetos: Participaron 225 estudiantes de Psicología de la Universidad Nacional de Mar del Plata consensuando sobre la relación significativa entre 9 conceptos académicos.El conocimiento previo compartido fue operativizado usando la Centralidad Sociocognitiva. El mapeo de las redes semánticas de los participantes, su inter influencia y evolución en las diferentes instancias de la negociación, el tratamiento analítico de comparación cuali y cuantitativa y su resolución gráfica, se realiza por medio de métodos especiales desarrollados sobre Análisis de Redes Sociales. Resultados: Las predicciones de influencia social entre pares y la visualización de la evolución de las redes semánticas de los participantes y los grupos, arrojan resultados robustos y sugerentes para su aplicación a diversos ámbitos de interacción social y comunicacional.
Resumo:
Resumen: Con motivo de conmemorarse los 125 años de la coronación pontificia de la Imagen de Ntra. Sra. de Luján, Patrona de la República Argentina, el autor recorre la historia de los distintos oratorios, capillas y templos que le han sido dedicados, desde 1630, año del milagro, deteniéndose en los comienzos de la construcción de la monumental Basílica neogótica, reconocida como una de las más importantes de América en su tipo. El proyecto, en cuanto al diseño y desarrollo, corresponde al P. Jorge María Salvaire, vicentino, con el permanente apoyo del arzobispo de Buenos Aires, monseñor Federico León Aneiros. La mencionada Basílica guarda particular importancia histórica y pastoral en razón de albergar en su camarín la Imagen original de Ntra. Sra. de Luján, una pequeña talla de la Inmaculada Concepción, de arcilla cocida y pintada, vestida luego a la usanza española y con corona.
Resumo:
Resumen: El presente ensayo teórico se orienta a revisar las concepciones de sujeto de uno de los sistemas teóricos de economía-política que han tenido mayor influencia hasta el presente. El padre del liberalismo (Adam Smith) sustentó una teoría de sujeto cartesiano (moderno), es decir, un verdadero sapiens sapiens racional y autoconsciente. A través de la psicología cognitiva, los Premios Nobel en economía Kanheman y Tversky presentan una nueva variante de homoeconomicus, enriquecida con aportes de la ciencia experimental, modificando sustancialmente aquella vieja concepción de hombre como ser racional que signó casi todo el pensamiento moderno. Dadas estas “recientes revisiones” teórico-metodológicas, gestadas a la luz de la denominada ciencia de la mente, es que se hace indispensable re-pensar las viejas nociones de sujeto que sirvieron de cimiento al sistema económico y político, antes citadas. Para tal fin, se propone efectuar una sinergia teórico-metodológica entre dos disciplinas científicas: la economía y la psicología. Dicho sincretismo podría proporcionar las bases para una nueva disciplina científica integradora, que muchos teóricos ya han denominado neuro-economía. Es por esto que en el presente trabajo se propone realizar una crítica fundamentada de una de las teorías económicas vigentes, haciendo principal hincapié en los supuestos psicológicos y antropológicos. Finalmente, se intenta re-pensar un nuevo modelo de homoeconomicus, articulando los principales supuestos de la economía actual con algunos de los aportes de la psicología cognitiva, la biología y las neurociencias cognitivas, que redunde en un nuevo paradigma integrador denominado psiconeuro- economía.
Resumo:
Resumen: El fraile castellano Alonso de Espina redacta c. 1460 una voluminosa obra titulada Fortalitium Fidei, conocida por sus duras invectivas contra los “enemigos de la fe”: judíos, herejes judaizantes, sarracenos y demonios. Con todo, el presente trabajo no se ocupa de estudiar el modo en que el discurso de Espina discurre acerca de los distintos enemigos de la ecclesia Dei sino de analizar el lugar concedido por el fraile castellano al defensor de la fe por antonomasia: a saber, el predicador de la palabra divina. Haciendo uso de la teoría polifónica de la enunciación y de contribuciones recientes en torno a la noción de ethos, se examina, en particular, el modo en que Alonso de Espina asume discursivamente la investidura de predicador evangélico, soldado de Cristo, para legitimar su propio decir y, también, el modo en que dicha identificación permite delinear, por contraste, la figura del hereje, uno de los principales adversarios que combate el fraile castellano.
Resumo:
Resumen: El propósito del artículo es analizar el acercamiento diplomático de Buenos Aires con Simón Bolívar para sumar fuerzas en el conflicto con Brasil por la soberanía en la Banda Oriental. Intentaremos mostrar por qué intereses políticos Buenos Aires; fuera dominada por la facción “unitaria” o “federal”, y Bolívar; empeñado en liderar la organización nacional de Colombia, Perú y Bolivia, no formalizaron un acuerdo diplomático/militar en el contexto de la creación de los Estados de Bolivia y Uruguay durante el período de 1824-1828. Procuramos la inteligibilidad, interpretación y explicación de la cuestión mediante el análisis de fuentes de información histórica que reflejan la agenda pública de Buenos Aires, y las prioridades políticas de Bolívar en el espacio temporal que nos ocupa.