130 resultados para EJECUCIÓN EXTRAJUDICIAL, SUMARIA O ARBITRARIA
Resumo:
Este trabajo tiene como objetivo revelar significados del cuerpo humano en la obra del cronista de Indias Bartolomé de Las Casas, específicamente en tres de sus libros más representativos: Historia de las Indias, Apologética Historia Sumaria y Brevísima relación de la destruición de las Indias. Después de una lectura detallada y de un riguroso análisis se seleccionaron tres cuerpos temáticos que definen a su vez la estructura con la cual se presenta el trabajo: Conocer, Destruir y Venerar. En Conocer se identifica el conocimiento que sobre el cuerpo humano tuvo Bartolomé de Las Casas a partir de las tradiciones escolástica y enciclopédica. Se describen y explican tres temas fundamentales del dominio del fraile: en un primer apartado la relación del cuerpo y el alma y la teoría de los humores o temperamentos; en el siguiente, lo que se entendía por los órganos exteriores e interiores; y en el último, algunos aspectos exteriores (influencia del cielo y de la tierra, alimentación, afecciones temporales y sexuales, edad de los padres a la hora de engendrar, etc.) que se creía influían en la complexión del cuerpo humano. En la descripción de estas temáticas se analiza la forma cómo Bartolomé de Las Casas intentó aplicar este conocimiento a la corporalidad de los indios; ello a su vez se explica en el afán del fraile por defender con los argumentos europeos conocidos y legitimados, a los indios que estaban siendo explotados y destruidos en el proceso de descubrimiento y conquista del Nuevo Mundo. En el capítulo se puede observar cómo en algunas ocasiones los argumentos de Las Casas no se ajustan muy bien a la descripción de la corporalidad del indio. En Destruir los significados del cuerpo que resultan se derivan de dos tipos de de discurso diferentes. El primero es de carácter “denunciador” identificado en Brevísima relación de la destruición de las Indias, en donde sobresale la elección del léxico, el uso de sinónimos, reiteraciones e hipérboles, para enunciar el cuerpo del indio que está siendo destruido. En este apartado se analizan algunas características estilísticas que permiten observar un sentido diferente del cuerpo del indio y del cuerpo humano en general. El segundo tipo de discurso identificado es de carácter “histórico” y proviene de un análisis de Historia de las Indias. A través del seguimiento a la descripción del cuerpo del personaje Alonso de Ojeda, se observa cómo Bartolomé de Las Casas construyó un héroe dentro del relato a partir de la invulnerabilidad que le otorga al cuerpo del personaje. El análisis que se propone en Venerar, tiene en cuenta el carácter religioso con que Bartolomé de Las Casas signó el cuerpo humano en gran parte de su obra. El primer apartado es un análisis del cuerpo que profana; siguiendo tres temas fundamentales (la condena que Las Casas hace de la adoración a Príapo en la Antigüedad, la exposición de la sodomía y la antropofagia) se observa diferentes formas de profanar con el cuerpo condenadas por Bartolomé de Las Casas. El segundo apartado es un análisis de la forma cómo Bartolomé de Las Casas cristianizó en el relato algunos rituales religiosos de los indios, con el fin de acortar la distancia entre éstos y sus lectores (la cultura europea en general), para proponer su aceptación y sugerir a la vez la predisposición “natural” que tenían para ser cristianizados.
Resumo:
En la actualidad, la computación de altas prestaciones está siendo utilizada en multitud de campos científicos donde los distintos problemas estudiados se resuelven mediante aplicaciones paralelas/distribuidas. Estas aplicaciones requieren gran capacidad de cómputo, bien sea por la complejidad de los problemas o por la necesidad de solventar situaciones en tiempo real. Por lo tanto se debe aprovechar los recursos y altas capacidades computacionales de los sistemas paralelos en los que se ejecutan estas aplicaciones con el fin de obtener un buen rendimiento. Sin embargo, lograr este rendimiento en una aplicación ejecutándose en un sistema es una dura tarea que requiere un alto grado de experiencia, especialmente cuando se trata de aplicaciones que presentan un comportamiento dinámico o cuando se usan sistemas heterogéneos. En estos casos actualmente se plantea realizar una mejora de rendimiento automática y dinámica de las aplicaciones como mejor enfoque para el análisis del rendimiento. El presente trabajo de investigación se sitúa dentro de este ámbito de estudio y su objetivo principal es sintonizar dinámicamente mediante MATE (Monitoring, Analysis and Tuning Environment) una aplicación MPI empleada en computación de altas prestaciones que siga un paradigma Master/Worker. Las técnicas de sintonización integradas en MATE han sido desarrolladas a partir del estudio de un modelo de rendimiento que refleja los cuellos de botella propios de aplicaciones situadas bajo un paradigma Master/Worker: balanceo de carga y número de workers. La ejecución de la aplicación elegida bajo el control dinámico de MATE y de la estrategia de sintonización implementada ha permitido observar la adaptación del comportamiento de dicha aplicación a las condiciones actuales del sistema donde se ejecuta, obteniendo así una mejora de su rendimiento.
Resumo:
Computer chips implementation technologies evolving to obtain more performance are increasing the probability of transient faults. As this probability grows and on-chip solutions are expensive or tend to degrade processor performance, the efforts to deal with these transient faults in higher levels (such as the operating system or even at the application level) are increasing. Mostly, these efforts are trying to avoid silent data corruptions using hardware, software and hybrid based techniques to add redundancy to detect the errors generated by the transient faults. This work presents our proposal to improve the robustness of applications with source code based transformation adding redundancy. Also, our proposal takes account of the tradeoff between the improved robustness and the overhead generated by the added redundancy.
Resumo:
Current parallel applications running on clusters require the use of an interconnection network to perform communications among all computing nodes available. Imbalance of communications can produce network congestion, reducing throughput and increasing latency, degrading the overall system performance. On the other hand, parallel applications running on these networks posses representative stages which allow their characterization, as well as repetitive behavior that can be identified on the basis of this characterization. This work presents the Predictive and Distributed Routing Balancing (PR-DRB), a new method developed to gradually control network congestion, based on paths expansion, traffic distribution and effective traffic load, in order to maintain low latency values. PR-DRB monitors messages latencies on intermediate routers, makes decisions about alternative paths and record communication pattern information encountered during congestion situation. Based on the concept of applications repetitiveness, best solution recorded are reapplied when saved communication pattern re-appears. Traffic congestion experiments were conducted in order to evaluate the performance of the method, and improvements were observed.
Resumo:
Este trabajo analiza el rendimiento del algoritmo de alineamiento de secuencias conocido como Needleman-Wunsch, sobre 3 sistemas de cómputo multiprocesador diferentes. Se analiza y se codifica el algoritmo serie usando el lenguaje de programación C y se plantean una serie de optimizaciones con la finalidad de minimizar el volumen y el tiempo de cómputo. Posteriormente, se realiza un análisis de las prestaciones del programa sobre los diferentes sistemas de cómputo. En la segunda parte del trabajo, se paraleliza el algoritmo serie y se codifica ayudándonos de OpenMP. El resultado son dos variantes del programa que difieren en la relación entre la cantidad de cómputo y la de comunicación. En la primera variante, la comunicación entre procesadores es poco frecuente y se realiza tras largos periodos de ejecución (granularidad gruesa). En cambio, en la segunda variante las tareas individuales son relativamente pequeñas en término de tiempo de ejecución y la comunicación entre los procesadores es frecuente (granularidad fina). Ambas variantes se ejecutan y analizan en arquitecturas multicore que explotan el paralelismo a nivel de thread. Los resultados obtenidos muestran la importancia de entender y saber analizar el efecto del multicore y multithreading en el rendimiento.
Resumo:
For the execution of the scientific applications, different methods have been proposed to dynamically provide execution environments for such applications that hide the complexity of underlying distributed and heterogeneous infrastructures. Recently virtualization has emerged as a promising technology to provide such environments. Virtualization is a technology that abstracts away the details of physical hardware and provides virtualized resources for high-level scientific applications. Virtualization offers a cost-effective and flexible way to use and manage computing resources. Such an abstraction is appealing in Grid computing and Cloud computing for better matching jobs (applications) to computational resources. This work applies the virtualization concept to the Condor dynamic resource management system by using Condor Virtual Universe to harvest the existing virtual computing resources to their maximum utility. It allows existing computing resources to be dynamically provisioned at run-time by users based on application requirements instead of statically at design-time thereby lay the basis for efficient use of the available resources, thus providing way for the efficient use of the available resources.
Resumo:
Automatización de una vivienda consistente en un sistema capaz de reconocer una serie de comandos únicamente teniendo como entrada la señal acústica emitida por el usuario. Se ha optado por realizar un entorno de simulación 3D en el que se recrea una vivienda y el movimiento de un usuario. Los resultados obtenidos de la ejecución de órdenes de voz se pueden apreciar en el propio simulador, viendo en pantalla el resultado que producirían en una casa inteligente con el mismo sistema.
Resumo:
El present treball aspira a servir com primera aproximació a una avaluació del model actual d'execució de la pena de Treballs en Benefici de la Comunitat en el nostre actual sistema de penes, a partir de la valoració sobre la presència dels elements que la investigació criminològica ha destacat com a rellevants en matèria de rehabilitació amb penats condemnats a penes de treball comunitari. D’aquesta manera, hem optat per realitzar una investigació qualitativa mitjançant entrevistes a una mostra de penats que van finalitzar el compliment d'una pena de TBC a la província de Barcelona entre el mes d'octubre de 2008 i el de gener de 2009 per tal de conèixer la seva percepció sobre la presència d’aquests elements.
Resumo:
La recerca vol complimentar l’encàrrec de la Secretaria de Serveis Penitenciaris, Rehabilitació i Justícia juvenil, feta al Centre d’Estudis Jurídics i Formació Especialitzada respecte al coneixement de la problemàtica de les persones sotmeses a sancions penals que pateixen algun tipus de trastorn mental. L’interès de la recerca es centra en conèixer l’abast del fenomen de la salut mental en l’execució penal a nivell quantitatiu i conèixer més a fons les característiques i particularitats del col•lectiu afectat, per tal de poder millorar la seva atenció des dels serveis d’execució penal i la seva derivació un cop finalitzat el compliment de la pena o mesura. En la primera part de l’estudi s’aproxima al col•lectiu de persones afectades de trastorns mentals que es troben complint una pena de presó o una mesura de seguretat a Catalunya durant un període determinat de temps. Concretament la mostra la composen els interns penitenciaris de les presons ubicades a les comarques de Barcelona que durant l’any 2005 van passar com a mínim un dia per una unitat de psiquiatria dels centres penitenciaris: CP Homes Barcelona, CP Quatre Camins, CP Brians 1 i la Unitat Hospitalària Penal Penitenciària. També formen part de l’estudi les persones sotmeses a mesures de seguretat de les comarques de Barcelona que estaven d’alta durant l’any 2005. S’analitzen nombroses variables que descriuen aquest col•lectiu i la manera en que s’adapten al compliment de la pena. També es compara aquest grup de persones amb altres col•lectius de penats sense problemes mentals declarats. La segona part de l’estudi recull mitjançant la tècnica Delphi, l’opinió de professionals i experts vinculats al tema de la salut mental i l’execució de penes, a qui s’ha preguntat sobre diverses qüestions clau. Concretament se’ls ha preguntat pel diagnòstic de les persones penades amb trastorns mentals, el seu tractament, les propostes de derivació i les perspectives de futur en aquest tema. S’ha posat especial èmfasi en les previsions i estimacions que fan eles experts sobre les possibilitats futures de la sanitat penitenciària i les propostes de solució i millora dels principals problemes detectats per ells mateixos.
Resumo:
En el projecte s’ha dut a terme un estudi sobre la tecnologia que aporten les targetes gràfiques (GPU) dins l’àmbit de programació d’aplicacions que tradicionalment eren executades en la CPU o altrament conegut com a GPGPU. S’ha fet una anàlisi profunda del marc tecnològic actual explicant part del maquinari de les targetes gràfiques i de què tracta el GPGPU. També s’han estudiat les diferents opcions que existeixen per poder realitzar els tests de rendiment que permetran avaluar el programari, quin programari està dissenyat per ser executat amb aquesta tecnologia i quin és el procediment a seguir per poder utilitzar-los. S’han efectuat diverses proves per avaluar el rendiment de programari dissenyat o compatible d’executar en la GPU, realitzant taules comparatives amb els temps de còmput. Un cop finalitzades les diferents proves del programari, es pot concloure que no tota aplicació processada en la GPU aporta un benefici. Per poder veure millores és necessari que l’aplicació reuneixi una sèrie de requisits com que disposi d’un elevat nombre d’operacions que es puguin realitzar en paral lel, que no existeixin condicionants per a l’execució de les operacions i que sigui un procés amb càlcul aritmètic intensiu.
Resumo:
La tolerancia a fallos es una línea de investigación que ha adquirido una importancia relevante con el aumento de la capacidad de cómputo de los súper-computadores actuales. Esto es debido a que con el aumento del poder de procesamiento viene un aumento en la cantidad de componentes que trae consigo una mayor cantidad de fallos. Las estrategias de tolerancia a fallos actuales en su mayoría son centralizadas y estas no escalan cuando se utiliza una gran cantidad de procesos, dado que se requiere sincronización entre todos ellos para realizar las tareas de tolerancia a fallos. Además la necesidad de mantener las prestaciones en programas paralelos es crucial, tanto en presencia como en ausencia de fallos. Teniendo en cuenta lo citado, este trabajo se ha centrado en una arquitectura tolerante a fallos descentralizada (RADIC – Redundant Array of Distributed and Independant Controllers) que busca mantener las prestaciones iniciales y garantizar la menor sobrecarga posible para reconfigurar el sistema en caso de fallos. La implementación de esta arquitectura se ha llevado a cabo en la librería de paso de mensajes denominada Open MPI, la misma es actualmente una de las más utilizadas en el mundo científico para la ejecución de programas paralelos que utilizan una plataforma de paso de mensajes. Las pruebas iniciales demuestran que el sistema introduce mínima sobrecarga para llevar a cabo las tareas correspondientes a la tolerancia a fallos. MPI es un estándar por defecto fail-stop, y en determinadas implementaciones que añaden cierto nivel de tolerancia, las estrategias más utilizadas son coordinadas. En RADIC cuando ocurre un fallo el proceso se recupera en otro nodo volviendo a un estado anterior que ha sido almacenado previamente mediante la utilización de checkpoints no coordinados y la relectura de mensajes desde el log de eventos. Durante la recuperación, las comunicaciones con el proceso en cuestión deben ser retrasadas y redirigidas hacia la nueva ubicación del proceso. Restaurar procesos en un lugar donde ya existen procesos sobrecarga la ejecución disminuyendo las prestaciones, por lo cual en este trabajo se propone la utilización de nodos spare para la recuperar en ellos a los procesos que fallan, evitando de esta forma la sobrecarga en nodos que ya tienen trabajo. En este trabajo se muestra un diseño propuesto para gestionar de un modo automático y descentralizado la recuperación en nodos spare en un entorno Open MPI y se presenta un análisis del impacto en las prestaciones que tiene este diseño. Resultados iniciales muestran una degradación significativa cuando a lo largo de la ejecución ocurren varios fallos y no se utilizan spares y sin embargo utilizándolos se restablece la configuración inicial y se mantienen las prestaciones.
Resumo:
Generación dinámica de interfaces web basadas en ficheros descriptivos XML para el control de la parametrización compleja y ejecución de programas por línea de comandos. La necesidad surge con la aplicación mlcoalsim, utilizada por investigadores de la UAB, cuya parametrización requiere la edición manual de un fichero de texto la sintaxis del cual es complicada y pesada. Con la generación de interfaces web se pretende ayudar a los usuarios en la correcta parametrización y ejecución de aplicaciones como mlcoalsim.
Resumo:
Performance prediction and application behavior modeling have been the subject of exten- sive research that aim to estimate applications performance with an acceptable precision. A novel approach to predict the performance of parallel applications is based in the con- cept of Parallel Application Signatures that consists in extract an application most relevant parts (phases) and the number of times they repeat (weights). Executing these phases in a target machine and multiplying its exeuction time by its weight an estimation of the application total execution time can be made. One of the problems is that the performance of an application depends on the program workload. Every type of workload affects differently how an application performs in a given system and so affects the signature execution time. Since the workloads used in most scientific parallel applications have dimensions and data ranges well known and the behavior of these applications are mostly deterministic, a model of how the programs workload affect its performance can be obtained. We create a new methodology to model how a program’s workload affect the parallel application signature. Using regression analysis we are able to generalize each phase time execution and weight function to predict an application performance in a target system for any type of workload within predefined range. We validate our methodology using a synthetic program, benchmarks applications and well known real scientific applications.
Resumo:
El consumo energético es un aspecto cada vez más importante en el diseño de microprocesadores. Este trabajo experimenta con una técnica de control del consumo, el escalado dinámico de tensión y frecuencia (DVFS, siglas en inglés), para determinar cuan efectiva es la misma en la ejecución de programas con diferentes cargas de trabajo, intensivas en cómputo o memoria. Además, se ha extendido la experimentación a varios núcleos de ejecución, permitiendo comprobar en que medida las características de la ejecución en una arquitectura multicore afecta al desempeño de dicha técnica.
Resumo:
Cada vez es mayor el número de aplicaciones desarrolladas en el ámbito científico, como en la Bioinformática o en las Geociencias, escritas bajo el modelo MapReduce, empleando herramientas de código abierto como Apache Hadoop. De la necesidad de integrar Hadoop en entornos HPC, para posibilitar la ejecutar aplicaciones desarrolladas bajo el paradigma MapReduce, nace el presente proyecto. Se analizan dos frameworks diseñados para facilitar dicha integración a los desarrolladores: HoD y myHadoop. En este proyecto se analiza, tanto las posibilidades en cuanto a entornos que ofrecen dichos frameworks para la ejecución de aplicaciones MapReduce, como el rendimiento de los clúster Hadoop generados con HoD o myHadoop respecto a un clúster Hadoop físico.