863 resultados para Dinero y operaciones bancarias


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Desde mediados del siglo pasado, las mujeres han logrado importantes conquistas sociales y laborales tendientes a lograr una mayor igualdad de género. Pese a estos avances, el prejuicio sexista y la discriminación de género siguen estando extendidos en la mayoría de los países, asumiendo modalidades benévolas y difíciles de reconocer. A nivel laboral, los hombres, en comparación con las mujeres, siguen ganando más dinero y ocupando con mayor frecuencia puestos jerárquicos de toma de decisiones. Para explicar esta problemática, los especialistas han postulado la existencia de prejuicios sexistas (hostiles y benévolos) que usualmente se expresan en comportamientos de discriminación de género. Estos prejuicios generan un fenómeno conocido como 'laberinto de cristal', un conjunto de barreras invisibles y artificiales que obstaculizan el avance laboral-profesional de muchas mujeres calificadas dentro de sus organizaciones. Frente a esta situación, el objetivo del presente trabajo, enmarcado en el desarrollo de la tesis doctoral del autor, es analizar las características del prejuicio sexista (hostil y benévolo) y la tendencia a la discriminación de género en el lugar de trabajo. La muestra estuvo conformada por 235 trabajadores (52varones; promedio de edad 36.6 años) de organizaciones públicas y privadas de diversos rubros de la provincia de Santa Fe. La recolección de los datos se efectuó en los horarios habituales de trabajo, siendo la participación anónima y voluntaria. La batería de exploración estuvo integrada por la adaptación argentina del Inventario de Sexismo Ambivalente, un conjunto de escenarios para medir la tendencia a la discriminación de género en el lugar de trabajo, la adaptación argentina de la Escala de Deseabilidad Social del EPQ de Eysenck, una sección de datos sociodemográficos y el correspondiente consentimiento informado. Los resultados indican niveles medios de sexismo hostil y sexismo benévolo, y baja tendencia a la discriminación de género a nivel laboral. De los casos donde se registró esta última variable, predomina la discriminación contra las mujeres por embarazo o maternidad, seguida por la discriminación en decisiones de promoción. Los análisis de correlación mostraron que: (a)La mayor educación, menores montos de sexismo benévolo y menor tendencia a la discriminación de género en el lugar de trabajo; (b) a mayor tamaño organizacional, menor sexismo; (c) a mayor sexismo (hostil o benévolo), mayor tendencia a la discriminación de género; (d) a mayor sexismo hostil, menor deseabilidad social. A su vez, las pruebas de diferencia de medias efectuadas evidenciaron que: (e) los varones presentan mayor prejuicio sexista y mayor tendencia a la discriminación de género que las mujeres, quienes registran mayor deseabilidad social; (f) los trabajadores con nivel educativo universitario exhiben menores montos de sexismo benévolo; (g) en el sector privado se registra mayor tendencia a la discriminación que en el sector público; (h) en cuanto al ramo de actividad, los trabajadores de la administración pública informan menos sexismo benévolo que los pertenecientes a la industria o a la educación/investigación (téngase en cuenta que el 71.1de las personas encuestadas en la administración pública eran mujeres y el 97.1del ramo industria eran varones). Más allá del avance femenino en materia de igualdad de género y de la existencia de un amplio marco legal que prohíbe la discriminación, las mujeres continúan atravesando experiencias sexistas originadas en estereotipos de género tradicionales. De acuerdo con los resultados, a nivel laboral estas experiencias se traducen fundamentalmente en rechazo de posibilidades de promoción y discriminación por embarazo o maternidad. En general, estos actos fueron justificados apelando a estereotipos propios del sexismo benévolo, que plantean a la mujer como un ser puro, delicado, dependiente, que debe ser cuidado y protegido, siendo su responsabilidad primera el cuidado del hogar y la crianza de los hijos. La maternidad aparece así como un rol que perjudica el trabajo formal, especialmente de mediana y alta jerarquía. Asimismo, en línea con estudios anteriores, el prejuicio sexista se vinculó negativamente con el nivel educativo y el tamaño de la organización, y positivamente con la tendencia a los comportamientos de discriminación de género. Estos hallazgos resaltan la necesidad de crear estrategias tendientes a modificar estos prejuicios en los trabajadores, sobre todo de empresas privadas y organizaciones pequeñas, con el fin último de promover mayores niveles de igualdad de género a nivel laboral

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Temática: En una materia llamada Psicoterapia 'de grupos corresponde problematizar el campo de lo grupal como movimiento y devenir. Tomamos al agrupamiento Comisión de Trabajos Prácticos bajo una modalidad de operaciones que dialoga y se diferencia del tradicional dispositivo docente, heredero de la formación típica de las humanidades'. Objetivos: Esta propuesta pedagógica consiste en brindar un espacio de capacitación dentro del dispositivo universitario. Nuestras investigaciones nos permiten situar las problemáticas que hoy se presentan en la efectuación de los trabajos prácticos. En esta presentación nos centraremos en revisar procedimientos, poniendo una especial atención en la constitución de operaciones con potencia para producir alteraciones y devenires, El carozo de tales procedimientos pasa por atravesar experiencias y pensarlas; en este caso, la experiencia que ofrece el acontecer del propio agrupamiento en su relación con una clínica de la subjetividad. Redefinimos al dispositivo docente, que entonces debe inventar procedimientos y operaciones que presenten potencia subjetiva para las condiciones que efectivamente rigen. Metodología: Los recorridos efectuados implican una intensaactividad de investigación, queinvolucra prácticas deexperimentación que producen directamente efectos conceptuales. En tal sentido la investigación es inmediatamente acción, fuerza y potencia que interviene en una relación diferencial con acontecimientos, multiplicándolos a la vez que ocurre una transformación recíproca. Estas investigaciones se encuentran respaldadas por un extenso corpus de documentación, compuesto por las crónicas de las reuniones semanales que toman los propios alumnos, en forma rotativa; crónicas y registros de las reuniones de cátedra en las que se supervisa sistemáticamente lo acontecido en las Comisiones de TP, con foco especial en las relaciones entre el equipo docente (integrado por el auxiliar docente y colaboradores) y los alumnos. Resultados: La elucidación permanente de la subjetividad de los docentes, su compromiso en la co-producción de lo que padecen, ha constituido un procedimiento indispensable y privilegiado. Los modos iniciales con los que lanzamos el dispositivo producen discordancia con las suposiciones y tendencias inerciales; se desencadena así un cierto efecto sorpresa que si bien va acompañado por desconcierto y perplejidad es campo propicio para abrir camino a una otra disponibilidad subjetiva requerida por la capacitación clínica. El primero de los procedimientos que aspira a modificar ciertas condiciones de partida, es efectuar una interpelación a los 'alumnos' como psicólogos en. Un segundo procedimiento es el cuestionamiento del ejercicio de la función docente desde el lugar instituido y estructuralmente territorializado. Conclusiones: El dispositivo comunidad clínica, implica, dispone reciprocidad en la donación correlativa de torpezas y habilidades. La asimetría inicial en la relación equipo docente / alumnos no imposibilita la reciprocidad Hay una decisiva operación en juego cuando objetamos las formas monográficas de realización de los parciales e impulsamos otro género escritural, Un procedimiento de intensificación pasa por impulsar flujos: de crónicas, en algunos casos de textos literarios -traídos tanto por el docente como por los alumnos- interpretaciones, señalamientos e intervenciones en general que en la inmanencia de la situación clínica despliegan operacionalmente fragmentos ad-hoc de hebras conceptuales. La devolución comentada de los textos producidos por los alumnos constituye un procedimiento decisivo en la marcha del dispositivo y sus efectos. Algunas de las crónicas y una importante cantidad de escritos confeccionados para los parciales o como informe final de la promoción sin examen tienen esa hechura; en ellos se puede apreciar ese atravesamiento de la experiencia devenido en pensamientos en cabal diálogo con varios co-pensores

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este trabajo se intenta iniciar una exploración en el estatuto de las interfaces entre los niveles de descripción lingüísticos, particularmente léxico, morfosintaxis y el que provisoriamente llamaremos semántica - pragmática. Partimos de observar que en dos modelos teóricos se pone aparentemente en cuestión la necesidad de la Forma Lógica como interfaz entre las propiedades lexicales articuladas en la sintaxis y la interpretación completa de una expresión. Nos referimos por una parte al Programa Minimalista iniciado por Chomsky (1995), que tiene como objetivo central reducir a lo indispensable los elementos y operaciones que intervienen en la derivación de una expresión lo cual tiene la consecuencia de que se torna deseable que queden como niveles de representación solo aquellos que resulten indispensables. Con los conceptos de Materialización o Transferencia Múltiple (Uriagereka, 1999) y derivación por fases (Chomsky, 2008 y Gallego, 2010) la propuesta del nivel de FL se vuelve prescindible. Por otra parte, en la Teoría de la Relevancia de Sperber y Wilson (1986) y trabajos subsiguientes, si bien en principio se afirma que la interpretación semántico- pragmática se deriva de una representación llamada Forma Lógica, esta no aparece claramente definida y no equivale a la concepción corriente que se acepta en la Gramática Generativa (May, 1985). Además, hay factores importantes en la TR que hacen surgir ideas distintas; por ejemplo, que los procesos de interpretación se dan "en paralelo" a la derivación sintáctica, que la postulación de las Categorías Procedimentales como "instrucciones de procesamiento", propuesta de Leonetti y Escandell Vidal (2004), lleva a suponer que habría elementos en la derivación sintáctica que desencadenan procesos de interpretación antes de que la derivación llegue a la interfaz de FL y, por último, que varias investigaciones en progreso (Escandell-Vidal, 2002, Leonetti y Escandell Vidal, 2006, Leonetti, 2007muestran que la interpretación completa de un enunciado es inducida por estructuras sintácticas específicas, no por factores contextuales como proponen ciertas corrientes de la pragmática. Teniendo en cuenta que de acuerdo a Chomsky (1998 y 2008) algunas CCFF son núcleos de fase y que una fase "agotada" se transfiere inmediatamente para reducir el trabajo computacional subsiguiente, la transferencia de cada fase permitiría iniciar un proceso de interpretación de "partes" de la expresión, lo cual lleva a suponer que la interfaz FL no llega a derivarse en forma completa, por lo tanto este nivel de interfaz resultaría superfluo

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Desde mediados del siglo pasado, las mujeres han logrado importantes conquistas sociales y laborales tendientes a lograr una mayor igualdad de género. Pese a estos avances, el prejuicio sexista y la discriminación de género siguen estando extendidos en la mayoría de los países, asumiendo modalidades benévolas y difíciles de reconocer. A nivel laboral, los hombres, en comparación con las mujeres, siguen ganando más dinero y ocupando con mayor frecuencia puestos jerárquicos de toma de decisiones. Para explicar esta problemática, los especialistas han postulado la existencia de prejuicios sexistas (hostiles y benévolos) que usualmente se expresan en comportamientos de discriminación de género. Estos prejuicios generan un fenómeno conocido como 'laberinto de cristal', un conjunto de barreras invisibles y artificiales que obstaculizan el avance laboral-profesional de muchas mujeres calificadas dentro de sus organizaciones. Frente a esta situación, el objetivo del presente trabajo, enmarcado en el desarrollo de la tesis doctoral del autor, es analizar las características del prejuicio sexista (hostil y benévolo) y la tendencia a la discriminación de género en el lugar de trabajo. La muestra estuvo conformada por 235 trabajadores (52varones; promedio de edad 36.6 años) de organizaciones públicas y privadas de diversos rubros de la provincia de Santa Fe. La recolección de los datos se efectuó en los horarios habituales de trabajo, siendo la participación anónima y voluntaria. La batería de exploración estuvo integrada por la adaptación argentina del Inventario de Sexismo Ambivalente, un conjunto de escenarios para medir la tendencia a la discriminación de género en el lugar de trabajo, la adaptación argentina de la Escala de Deseabilidad Social del EPQ de Eysenck, una sección de datos sociodemográficos y el correspondiente consentimiento informado. Los resultados indican niveles medios de sexismo hostil y sexismo benévolo, y baja tendencia a la discriminación de género a nivel laboral. De los casos donde se registró esta última variable, predomina la discriminación contra las mujeres por embarazo o maternidad, seguida por la discriminación en decisiones de promoción. Los análisis de correlación mostraron que: (a)La mayor educación, menores montos de sexismo benévolo y menor tendencia a la discriminación de género en el lugar de trabajo; (b) a mayor tamaño organizacional, menor sexismo; (c) a mayor sexismo (hostil o benévolo), mayor tendencia a la discriminación de género; (d) a mayor sexismo hostil, menor deseabilidad social. A su vez, las pruebas de diferencia de medias efectuadas evidenciaron que: (e) los varones presentan mayor prejuicio sexista y mayor tendencia a la discriminación de género que las mujeres, quienes registran mayor deseabilidad social; (f) los trabajadores con nivel educativo universitario exhiben menores montos de sexismo benévolo; (g) en el sector privado se registra mayor tendencia a la discriminación que en el sector público; (h) en cuanto al ramo de actividad, los trabajadores de la administración pública informan menos sexismo benévolo que los pertenecientes a la industria o a la educación/investigación (téngase en cuenta que el 71.1de las personas encuestadas en la administración pública eran mujeres y el 97.1del ramo industria eran varones). Más allá del avance femenino en materia de igualdad de género y de la existencia de un amplio marco legal que prohíbe la discriminación, las mujeres continúan atravesando experiencias sexistas originadas en estereotipos de género tradicionales. De acuerdo con los resultados, a nivel laboral estas experiencias se traducen fundamentalmente en rechazo de posibilidades de promoción y discriminación por embarazo o maternidad. En general, estos actos fueron justificados apelando a estereotipos propios del sexismo benévolo, que plantean a la mujer como un ser puro, delicado, dependiente, que debe ser cuidado y protegido, siendo su responsabilidad primera el cuidado del hogar y la crianza de los hijos. La maternidad aparece así como un rol que perjudica el trabajo formal, especialmente de mediana y alta jerarquía. Asimismo, en línea con estudios anteriores, el prejuicio sexista se vinculó negativamente con el nivel educativo y el tamaño de la organización, y positivamente con la tendencia a los comportamientos de discriminación de género. Estos hallazgos resaltan la necesidad de crear estrategias tendientes a modificar estos prejuicios en los trabajadores, sobre todo de empresas privadas y organizaciones pequeñas, con el fin último de promover mayores niveles de igualdad de género a nivel laboral

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Temática: En una materia llamada Psicoterapia 'de grupos corresponde problematizar el campo de lo grupal como movimiento y devenir. Tomamos al agrupamiento Comisión de Trabajos Prácticos bajo una modalidad de operaciones que dialoga y se diferencia del tradicional dispositivo docente, heredero de la formación típica de las humanidades'. Objetivos: Esta propuesta pedagógica consiste en brindar un espacio de capacitación dentro del dispositivo universitario. Nuestras investigaciones nos permiten situar las problemáticas que hoy se presentan en la efectuación de los trabajos prácticos. En esta presentación nos centraremos en revisar procedimientos, poniendo una especial atención en la constitución de operaciones con potencia para producir alteraciones y devenires, El carozo de tales procedimientos pasa por atravesar experiencias y pensarlas; en este caso, la experiencia que ofrece el acontecer del propio agrupamiento en su relación con una clínica de la subjetividad. Redefinimos al dispositivo docente, que entonces debe inventar procedimientos y operaciones que presenten potencia subjetiva para las condiciones que efectivamente rigen. Metodología: Los recorridos efectuados implican una intensaactividad de investigación, queinvolucra prácticas deexperimentación que producen directamente efectos conceptuales. En tal sentido la investigación es inmediatamente acción, fuerza y potencia que interviene en una relación diferencial con acontecimientos, multiplicándolos a la vez que ocurre una transformación recíproca. Estas investigaciones se encuentran respaldadas por un extenso corpus de documentación, compuesto por las crónicas de las reuniones semanales que toman los propios alumnos, en forma rotativa; crónicas y registros de las reuniones de cátedra en las que se supervisa sistemáticamente lo acontecido en las Comisiones de TP, con foco especial en las relaciones entre el equipo docente (integrado por el auxiliar docente y colaboradores) y los alumnos. Resultados: La elucidación permanente de la subjetividad de los docentes, su compromiso en la co-producción de lo que padecen, ha constituido un procedimiento indispensable y privilegiado. Los modos iniciales con los que lanzamos el dispositivo producen discordancia con las suposiciones y tendencias inerciales; se desencadena así un cierto efecto sorpresa que si bien va acompañado por desconcierto y perplejidad es campo propicio para abrir camino a una otra disponibilidad subjetiva requerida por la capacitación clínica. El primero de los procedimientos que aspira a modificar ciertas condiciones de partida, es efectuar una interpelación a los 'alumnos' como psicólogos en. Un segundo procedimiento es el cuestionamiento del ejercicio de la función docente desde el lugar instituido y estructuralmente territorializado. Conclusiones: El dispositivo comunidad clínica, implica, dispone reciprocidad en la donación correlativa de torpezas y habilidades. La asimetría inicial en la relación equipo docente / alumnos no imposibilita la reciprocidad Hay una decisiva operación en juego cuando objetamos las formas monográficas de realización de los parciales e impulsamos otro género escritural, Un procedimiento de intensificación pasa por impulsar flujos: de crónicas, en algunos casos de textos literarios -traídos tanto por el docente como por los alumnos- interpretaciones, señalamientos e intervenciones en general que en la inmanencia de la situación clínica despliegan operacionalmente fragmentos ad-hoc de hebras conceptuales. La devolución comentada de los textos producidos por los alumnos constituye un procedimiento decisivo en la marcha del dispositivo y sus efectos. Algunas de las crónicas y una importante cantidad de escritos confeccionados para los parciales o como informe final de la promoción sin examen tienen esa hechura; en ellos se puede apreciar ese atravesamiento de la experiencia devenido en pensamientos en cabal diálogo con varios co-pensores

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En las novelas españolas de las últimas décadas, abundan las referencias a las artes plásticas, en particular a la pintura. No se trata de simples alusiones, sino de descripciones más o menos detalladas de cuadros e incluso de las reproducciones de estos, que se presentan como metáforas condensadoras de conflictos humanos presentes en los relatos (Sefarad, de Antonio Muñoz Molina o Tu rostro mañana, de Javier Marías). También se encuentran títulos que aluden a quienes producen arte o a las mismas obras y, a la vez, a la memoria de los protagonistas (El pintor de batallas, de Arturo Pérez Reverte o El jinete polaco, de Muñoz Molina); o bien se introducen algunos temas vinculados a la pintura, como el mercado del arte, el dinero y el poder (Corazón tan blanco, de Marías o Los viejos amigos, de Rafael Chirbes). Casi todas las novelas coinciden en que la referencia a la imagen pictórica es una vía de acceso a la recuperación de un pasado personal o colectivo, es decir la imagen está estrechamente asociada a la propia historia o a la Historia, y sirve para reflexionar sobre ella.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este trabajo se intenta iniciar una exploración en el estatuto de las interfaces entre los niveles de descripción lingüísticos, particularmente léxico, morfosintaxis y el que provisoriamente llamaremos semántica - pragmática. Partimos de observar que en dos modelos teóricos se pone aparentemente en cuestión la necesidad de la Forma Lógica como interfaz entre las propiedades lexicales articuladas en la sintaxis y la interpretación completa de una expresión. Nos referimos por una parte al Programa Minimalista iniciado por Chomsky (1995), que tiene como objetivo central reducir a lo indispensable los elementos y operaciones que intervienen en la derivación de una expresión lo cual tiene la consecuencia de que se torna deseable que queden como niveles de representación solo aquellos que resulten indispensables. Con los conceptos de Materialización o Transferencia Múltiple (Uriagereka, 1999) y derivación por fases (Chomsky, 2008 y Gallego, 2010) la propuesta del nivel de FL se vuelve prescindible. Por otra parte, en la Teoría de la Relevancia de Sperber y Wilson (1986) y trabajos subsiguientes, si bien en principio se afirma que la interpretación semántico- pragmática se deriva de una representación llamada Forma Lógica, esta no aparece claramente definida y no equivale a la concepción corriente que se acepta en la Gramática Generativa (May, 1985). Además, hay factores importantes en la TR que hacen surgir ideas distintas; por ejemplo, que los procesos de interpretación se dan "en paralelo" a la derivación sintáctica, que la postulación de las Categorías Procedimentales como "instrucciones de procesamiento", propuesta de Leonetti y Escandell Vidal (2004), lleva a suponer que habría elementos en la derivación sintáctica que desencadenan procesos de interpretación antes de que la derivación llegue a la interfaz de FL y, por último, que varias investigaciones en progreso (Escandell-Vidal, 2002, Leonetti y Escandell Vidal, 2006, Leonetti, 2007muestran que la interpretación completa de un enunciado es inducida por estructuras sintácticas específicas, no por factores contextuales como proponen ciertas corrientes de la pragmática. Teniendo en cuenta que de acuerdo a Chomsky (1998 y 2008) algunas CCFF son núcleos de fase y que una fase "agotada" se transfiere inmediatamente para reducir el trabajo computacional subsiguiente, la transferencia de cada fase permitiría iniciar un proceso de interpretación de "partes" de la expresión, lo cual lleva a suponer que la interfaz FL no llega a derivarse en forma completa, por lo tanto este nivel de interfaz resultaría superfluo

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La computación basada en servicios (Service-Oriented Computing, SOC) se estableció como un paradigma ampliamente aceptado para el desarollo de sistemas de software flexibles, distribuidos y adaptables, donde las composiciones de los servicios realizan las tareas más complejas o de nivel más alto, frecuentemente tareas inter-organizativas usando los servicios atómicos u otras composiciones de servicios. En tales sistemas, las propriedades de la calidad de servicio (Quality of Service, QoS), como la rapídez de procesamiento, coste, disponibilidad o seguridad, son críticas para la usabilidad de los servicios o sus composiciones en cualquier aplicación concreta. El análisis de estas propriedades se puede realizarse de una forma más precisa y rica en información si se utilizan las técnicas de análisis de programas, como el análisis de complejidad o de compartición de datos, que son capables de analizar simultáneamente tanto las estructuras de control como las de datos, dependencias y operaciones en una composición. El análisis de coste computacional para la composicion de servicios puede ayudar a una monitorización predictiva así como a una adaptación proactiva a través de una inferencia automática de coste computacional, usando los limites altos y bajos como funciones del valor o del tamaño de los mensajes de entrada. Tales funciones de coste se pueden usar para adaptación en la forma de selección de los candidatos entre los servicios que minimizan el coste total de la composición, basado en los datos reales que se pasan al servicio. Las funciones de coste también pueden ser combinadas con los parámetros extraídos empíricamente desde la infraestructura, para producir las funciones de los límites de QoS sobre los datos de entrada, cuales se pueden usar para previsar, en el momento de invocación, las violaciones de los compromisos al nivel de servicios (Service Level Agreements, SLA) potenciales or inminentes. En las composiciones críticas, una previsión continua de QoS bastante eficaz y precisa se puede basar en el modelado con restricciones de QoS desde la estructura de la composition, datos empiricos en tiempo de ejecución y (cuando estén disponibles) los resultados del análisis de complejidad. Este enfoque se puede aplicar a las orquestaciones de servicios con un control centralizado del flujo, así como a las coreografías con participantes multiples, siguiendo unas interacciones complejas que modifican su estado. El análisis del compartición de datos puede servir de apoyo para acciones de adaptación, como la paralelización, fragmentación y selección de los componentes, las cuales son basadas en dependencias funcionales y en el contenido de información en los mensajes, datos internos y las actividades de la composición, cuando se usan construcciones de control complejas, como bucles, bifurcaciones y flujos anidados. Tanto las dependencias funcionales como el contenido de información (descrito a través de algunos atributos definidos por el usuario) se pueden expresar usando una representación basada en la lógica de primer orden (claúsulas de Horn), y los resultados del análisis se pueden interpretar como modelos conceptuales basados en retículos. ABSTRACT Service-Oriented Computing (SOC) is a widely accepted paradigm for development of flexible, distributed and adaptable software systems, in which service compositions perform more complex, higher-level, often cross-organizational tasks using atomic services or other service compositions. In such systems, Quality of Service (QoS) properties, such as the performance, cost, availability or security, are critical for the usability of services and their compositions in concrete applications. Analysis of these properties can become more precise and richer in information, if it employs program analysis techniques, such as the complexity and sharing analyses, which are able to simultaneously take into account both the control and the data structures, dependencies, and operations in a composition. Computation cost analysis for service composition can support predictive monitoring and proactive adaptation by automatically inferring computation cost using the upper and lower bound functions of value or size of input messages. These cost functions can be used for adaptation by selecting service candidates that minimize total cost of the composition, based on the actual data that is passed to them. The cost functions can also be combined with the empirically collected infrastructural parameters to produce QoS bounds functions of input data that can be used to predict potential or imminent Service Level Agreement (SLA) violations at the moment of invocation. In mission-critical applications, an effective and accurate continuous QoS prediction, based on continuations, can be achieved by constraint modeling of composition QoS based on its structure, known data at runtime, and (when available) the results of complexity analysis. This approach can be applied to service orchestrations with centralized flow control, and choreographies with multiple participants with complex stateful interactions. Sharing analysis can support adaptation actions, such as parallelization, fragmentation, and component selection, which are based on functional dependencies and information content of the composition messages, internal data, and activities, in presence of complex control constructs, such as loops, branches, and sub-workflows. Both the functional dependencies and the information content (described using user-defined attributes) can be expressed using a first-order logic (Horn clause) representation, and the analysis results can be interpreted as a lattice-based conceptual models.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La relación entre la ingeniería y la medicina cada vez se está haciendo más estrecha, y debido a esto se ha creado una nueva disciplina, la bioingeniería, ámbito en el que se centra el proyecto. Este ámbito cobra gran interés debido al rápido desarrollo de nuevas tecnologías que en particular permiten, facilitan y mejoran la obtención de diagnósticos médicos respecto de los métodos tradicionales. Dentro de la bioingeniería, el campo que está teniendo mayor desarrollo es el de la imagen médica, gracias al cual se pueden obtener imágenes del interior del cuerpo humano con métodos no invasivos y sin necesidad de recurrir a la cirugía. Mediante métodos como la resonancia magnética, rayos X, medicina nuclear o ultrasonidos, se pueden obtener imágenes del cuerpo humano para realizar diagnósticos. Para que esas imágenes puedan ser utilizadas con ese fin hay que realizar un correcto tratamiento de éstas mediante técnicas de procesado digital. En ése ámbito del procesado digital de las imágenes médicas es en el que se ha realizado este proyecto. Gracias al desarrollo del tratamiento digital de imágenes con métodos de extracción de información, mejora de la visualización o resaltado de rasgos de interés de las imágenes, se puede facilitar y mejorar el diagnóstico de los especialistas. Por todo esto en una época en la que se quieren automatizar todos los procesos para mejorar la eficacia del trabajo realizado, el automatizar el procesado de las imágenes para extraer información con mayor facilidad, es muy útil. Actualmente una de las herramientas más potentes en el tratamiento de imágenes médicas es Matlab, gracias a su toolbox de procesado de imágenes. Por ello se eligió este software para el desarrollo de la parte práctica de este proyecto, su potencia y versatilidad simplifican la implementación de algoritmos. Este proyecto se estructura en dos partes. En la primera se realiza una descripción general de las diferentes modalidades de obtención de imágenes médicas y se explican los diferentes usos de cada método, dependiendo del campo de aplicación. Posteriormente se hace una descripción de las técnicas más importantes de procesado de imagen digital que han sido utilizadas en el proyecto. En la segunda parte se desarrollan cuatro aplicaciones en Matlab para ejemplificar el desarrollo de algoritmos de procesado de imágenes médicas. Dichas implementaciones demuestran la aplicación y utilidad de los conceptos explicados anteriormente en la parte teórica, como la segmentación y operaciones de filtrado espacial de la imagen, así como otros conceptos específicos. Las aplicaciones ejemplo desarrolladas han sido: obtención del porcentaje de metástasis de un tejido, diagnóstico de las deformidades de la columna vertebral, obtención de la MTF de una cámara de rayos gamma y medida del área de un fibroadenoma de una ecografía de mama. Por último, para cada una de las aplicaciones se detallará su utilidad en el campo de la imagen médica, los resultados obtenidos y su implementación en una interfaz gráfica para facilitar su uso. ABSTRACT. The relationship between medicine and engineering is becoming closer than ever giving birth to a recently appeared science field: bioengineering. This project is focused on this subject. This recent field is becoming more and more important due to the fast development of new technologies that provide tools to improve disease diagnosis, with regard to traditional procedures. In bioengineering the fastest growing field is medical imaging, in which we can obtain images of the inside of the human body without need of surgery. Nowadays by means of the medical modalities of magnetic resonance, X ray, nuclear medicine or ultrasound, we can obtain images to make a more accurate diagnosis. For those images to be useful within the medical field, they should be processed properly with some digital image processing techniques. It is in this field of digital medical image processing where this project is developed. Thanks to the development of digital image processing providing methods for data collection, improved visualization or data highlighting, diagnosis can be eased and facilitated. In an age where automation of processes is much sought, automated digital image processing to ease data collection is extremely useful. One of the most powerful image processing tools is Matlab, together with its image processing toolbox. That is the reason why that software was chosen to develop the practical algorithms in this project. This final project is divided into two main parts. Firstly, the different modalities for obtaining medical images will be described. The different usages of each method according to the application will also be specified. Afterwards we will give a brief description of the most important image processing tools that have been used in the project. Secondly, four algorithms in Matlab are implemented, to provide practical examples of medical image processing algorithms. This implementation shows the usefulness of the concepts previously explained in the first part, such as: segmentation or spatial filtering. The particular applications examples that have been developed are: calculation of the metastasis percentage of a tissue, diagnosis of spinal deformity, approximation to the MTF of a gamma camera, and measurement of the area of a fibroadenoma in an ultrasound image. Finally, for each of the applications developed, we will detail its usefulness within the medical field, the results obtained, and its implementation in a graphical user interface to ensure ease of use.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta investigación se ocupa de comprobar la viabilidad de un término, un concepto que se detecta como posible instrumento para nombrar algunas operaciones en arquitectura. Ese concepto es Lo Neutro. Frente al sistema de dualidades con el que enunciamos lo real, lo Neutro se sitúa, no tanto en el punto medio, como en el punto opuesto a ambos términos. No es la conjunción de contrarios, sino aquello que desvía la propia pregunta que obliga a elegir. Próximo a los conceptos de indefinición, indiferencia e inacción, lo Neutro se revela como un mecanismo fundamental de disolución. Reconociendo en la lengua varios sentidos para el término, con cada capítulo, la tesis va construyendo una definición ampliada de lo Neutro hasta configurar un conjunto de significados aplicables a la arquitectura. El primero de ellos es el que se deriva del concepto de indiferencia funcional. Tras un análisis del contexto teórico sobre el que se asienta la dialéctica bi-direccional forma-función, su consolidación en los primeros años del siglo XX y también su puesta en crisis mediante la introducción de nociones multi-relacionales como ‘entorno’ y ‘sistema’, la investigación propone tres modelos de estudio: la Planta Tipo, la Planta Única y la Planta de Equivalencias. En cada uno de estos casos, aunque el tema fundamental es la neutralidad programática, se reconoce también la presencia de los mecanismos geométricos y operaciones conceptuales que lo Neutro utiliza para generar respectivamente condiciones de ‘soporte’, de ‘marco’ o de ‘campo’. Estas tres condiciones espaciales apuntan a un entendimiento de lo Neutro que asocia su fórmula de doble negación (ni lo uno, ni lo otro) con el estado más incipiente de la materia, aquel en el que todavía no es pero que contiene ya todos los elementos de posibilidad de ser: lo Neutro como potencia. Aquello que la lógica nos impide afirmar, que una cosa es y no-es al mismo tiempo, nos lo concede la categoría aristotélica de la potencia. Por ello, en la última parte de la tesis se desarrollan de forma más autónoma aquellos temas vinculados con estos tres tipos de espacio que se basan en la renuncia, abordando la cuestión de la potencialidad desde la negación. Partiendo de dos condiciones superficiales básicas, la del muro vertical y la del suelo horizontal, se analizan algunos discursos basados en una restricción radical a estos dos elementos. Así, el muro ciego encuentra su precedente artístico en el lienzo en blanco y la tabula rasa se pone en relación con el concepto de ‘terrain vague’. Por último, la posibilidad de toda potencia de no actualizarse lleva a explorar el no-hacer como renuncia voluntaria y su capacidad de transformarse en acto de resistencia. ABSTRACT The concern of this research is to test the feasibility of a term, a concept that has been detected as a potential tool to name some architectural operations. That concept is the Neutral. In front of the dualities system with which we enounce the real, the Neutral places itself, not so much in the midpoint as in the opposite point of both terms. It is not the conjunction of the contraries, but that which deflects the question itself that compels us to make a choice. Recognizing the multiple interpretations of the term in the common language, with each chapter, the thesis builds an expanded definition of the Neutral to configure a set of meanings applicable to architecture. The first of them is the one that derives from the concept of functional indifference. After an analysis of the theoretical context in which the two-way dialectic between form and function lies, its consolidation in the early twentieth century and its call into crisis by the introduction of multi-relational concepts such as 'environment' and 'system', the research suggests three study models: the Typical Plan, the Single Plan and the Equivalents Plan. In each of these cases, although the fundamental issue is programmatic neutrality, it also recognizes the presence of geometric mechanisms and conceptual operations that the Neutral uses to generate respectively 'support', 'frame' or 'field' conditions. These three spatial conditions point to an understanding of the Neutral which associates its double negation formula (neither one nor the other) with the most incipient state of matter, that in which it not yet is, but already contains every element of the possibility of being: the neutral as potentiality. That which logic does not allow us to affirm, that one thing is and is-not at the same time, it is granted by the Aristotelian category of potentiality. Therefore, in the last part of the thesis, the topics relating these three types of space which are based on renouncement are more autonomously developed, addressing the issue of potentiality from the standpoint of denial. Starting from two basic surface conditions, the vertical wall and the horizontal floor, some speeches based on a radical restriction on these two elements are analyzed. Thus, the blind wall finds its artistic precedent in the blank canvas and the tabula rasa attitude gets in relation to the concept of ‘terrain vague’. Finally, the possibility of any potency of not being updated leads to explore the not-doing as voluntary resignation and its ability to transform itself into an act of resistance.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta investigación se ocupa de comprobar la viabilidad de un término, un concepto que se detecta como posible instrumento para nombrar algunas operaciones en arquitectura. Ese concepto es Lo Neutro. Frente al sistema de dualidades con el que enunciamos lo real, lo Neutro se sitúa, no tanto en el punto medio, como en el punto opuesto a ambos términos. No es la conjunción de contrarios, sino aquello que desvía la propia pregunta que obliga a elegir. Próximo a los conceptos de indefinición, indiferencia e inacción, lo Neutro se revela como un mecanismo fundamental de disolución. Reconociendo en la lengua varios sentidos para el término, con cada capítulo, la tesis va construyendo una definición ampliada de lo Neutro hasta configurar un conjunto de significados aplicables a la arquitectura. El primero de ellos es el que se deriva del concepto de indiferencia funcional. Tras un análisis del contexto teórico sobre el que se asienta la dialéctica bi-direccional forma-función, su consolidación en los primeros años del siglo XX y también su puesta en crisis mediante la introducción de nociones multi-relacionales como ‘entorno’ y ‘sistema’, la investigación propone tres modelos de estudio: la Planta Tipo, la Planta Única y la Planta de Equivalencias. En cada uno de estos casos, aunque el tema fundamental es la neutralidad programática, se reconoce también la presencia de los mecanismos geométricos y operaciones conceptuales que lo Neutro utiliza para generar respectivamente condiciones de ‘soporte’, de ‘marco’ o de ‘campo’. Estas tres condiciones espaciales apuntan a un entendimiento de lo Neutro que asocia su fórmula de doble negación (ni lo uno, ni lo otro) con el estado más incipiente de la materia, aquel en el que todavía no es pero que contiene ya todos los elementos de posibilidad de ser: lo Neutro como potencia. Aquello que la lógica nos impide afirmar, que una cosa es y no-es al mismo tiempo, nos lo concede la categoría aristotélica de la potencia. Por ello, en la última parte de la tesis se desarrollan de forma más autónoma aquellos temas vinculados con estos tres tipos de espacio que se basan en la renuncia, abordando la cuestión de la potencialidad desde la negación. Partiendo de dos condiciones superficiales básicas, la del muro vertical y la del suelo horizontal, se analizan algunos discursos basados en una restricción radical a estos dos elementos. Así, el muro ciego encuentra su precedente artístico en el lienzo en blanco y la tabula rasa se pone en relación con el concepto de ‘terrain vague’. Por último, la posibilidad de toda potencia de no actualizarse lleva a explorar el no-hacer como renuncia voluntaria y su capacidad de transformarse en acto de resistencia. ABSTRACT The concern of this research is to test the feasibility of a term, a concept that has been detected as a potential tool to name some architectural operations. That concept is the Neutral. In front of the dualities system with which we enounce the real, the Neutral places itself, not so much in the midpoint as in the opposite point of both terms. It is not the conjunction of the contraries, but that which deflects the question itself that compels us to make a choice. Recognizing the multiple interpretations of the term in the common language, with each chapter, the thesis builds an expanded definition of the Neutral to configure a set of meanings applicable to architecture. The first of them is the one that derives from the concept of functional indifference. After an analysis of the theoretical context in which the two-way dialectic between form and function lies, its consolidation in the early twentieth century and its call into crisis by the introduction of multi-relational concepts such as 'environment' and 'system', the research suggests three study models: the Typical Plan, the Single Plan and the Equivalents Plan. In each of these cases, although the fundamental issue is programmatic neutrality, it also recognizes the presence of geometric mechanisms and conceptual operations that the Neutral uses to generate respectively 'support', 'frame' or 'field' conditions. These three spatial conditions point to an understanding of the Neutral which associates its double negation formula (neither one nor the other) with the most incipient state of matter, that in which it not yet is, but already contains every element of the possibility of being: the neutral as potentiality. That which logic does not allow us to affirm, that one thing is and is-not at the same time, it is granted by the Aristotelian category of potentiality. Therefore, in the last part of the thesis, the topics relating these three types of space which are based on renouncement are more autonomously developed, addressing the issue of potentiality from the standpoint of denial. Starting from two basic surface conditions, the vertical wall and the horizontal floor, some speeches based on a radical restriction on these two elements are analyzed. Thus, the blind wall finds its artistic precedent in the blank canvas and the tabula rasa attitude gets in relation to the concept of ‘terrain vague’. Finally, the possibility of any potency of not being updated leads to explore the not-doing as voluntary resignation and its ability to transform itself into an act of resistance.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis doctoral se enmarca dentro del campo de los sistemas embebidos reconfigurables, redes de sensores inalámbricas para aplicaciones de altas prestaciones, y computación distribuida. El documento se centra en el estudio de alternativas de procesamiento para sistemas embebidos autónomos distribuidos de altas prestaciones (por sus siglas en inglés, High-Performance Autonomous Distributed Systems (HPADS)), así como su evolución hacia el procesamiento de alta resolución. El estudio se ha llevado a cabo tanto a nivel de plataforma como a nivel de las arquitecturas de procesamiento dentro de la plataforma con el objetivo de optimizar aspectos tan relevantes como la eficiencia energética, la capacidad de cómputo y la tolerancia a fallos del sistema. Los HPADS son sistemas realimentados, normalmente formados por elementos distribuidos conectados o no en red, con cierta capacidad de adaptación, y con inteligencia suficiente para llevar a cabo labores de prognosis y/o autoevaluación. Esta clase de sistemas suele formar parte de sistemas más complejos llamados sistemas ciber-físicos (por sus siglas en inglés, Cyber-Physical Systems (CPSs)). Los CPSs cubren un espectro enorme de aplicaciones, yendo desde aplicaciones médicas, fabricación, o aplicaciones aeroespaciales, entre otras muchas. Para el diseño de este tipo de sistemas, aspectos tales como la confiabilidad, la definición de modelos de computación, o el uso de metodologías y/o herramientas que faciliten el incremento de la escalabilidad y de la gestión de la complejidad, son fundamentales. La primera parte de esta tesis doctoral se centra en el estudio de aquellas plataformas existentes en el estado del arte que por sus características pueden ser aplicables en el campo de los CPSs, así como en la propuesta de un nuevo diseño de plataforma de altas prestaciones que se ajuste mejor a los nuevos y más exigentes requisitos de las nuevas aplicaciones. Esta primera parte incluye descripción, implementación y validación de la plataforma propuesta, así como conclusiones sobre su usabilidad y sus limitaciones. Los principales objetivos para el diseño de la plataforma propuesta se enumeran a continuación: • Estudiar la viabilidad del uso de una FPGA basada en RAM como principal procesador de la plataforma en cuanto a consumo energético y capacidad de cómputo. • Propuesta de técnicas de gestión del consumo de energía en cada etapa del perfil de trabajo de la plataforma. •Propuestas para la inclusión de reconfiguración dinámica y parcial de la FPGA (por sus siglas en inglés, Dynamic Partial Reconfiguration (DPR)) de forma que sea posible cambiar ciertas partes del sistema en tiempo de ejecución y sin necesidad de interrumpir al resto de las partes. Evaluar su aplicabilidad en el caso de HPADS. Las nuevas aplicaciones y nuevos escenarios a los que se enfrentan los CPSs, imponen nuevos requisitos en cuanto al ancho de banda necesario para el procesamiento de los datos, así como en la adquisición y comunicación de los mismos, además de un claro incremento en la complejidad de los algoritmos empleados. Para poder cumplir con estos nuevos requisitos, las plataformas están migrando desde sistemas tradicionales uni-procesador de 8 bits, a sistemas híbridos hardware-software que incluyen varios procesadores, o varios procesadores y lógica programable. Entre estas nuevas arquitecturas, las FPGAs y los sistemas en chip (por sus siglas en inglés, System on Chip (SoC)) que incluyen procesadores embebidos y lógica programable, proporcionan soluciones con muy buenos resultados en cuanto a consumo energético, precio, capacidad de cómputo y flexibilidad. Estos buenos resultados son aún mejores cuando las aplicaciones tienen altos requisitos de cómputo y cuando las condiciones de trabajo son muy susceptibles de cambiar en tiempo real. La plataforma propuesta en esta tesis doctoral se ha denominado HiReCookie. La arquitectura incluye una FPGA basada en RAM como único procesador, así como un diseño compatible con la plataforma para redes de sensores inalámbricas desarrollada en el Centro de Electrónica Industrial de la Universidad Politécnica de Madrid (CEI-UPM) conocida como Cookies. Esta FPGA, modelo Spartan-6 LX150, era, en el momento de inicio de este trabajo, la mejor opción en cuanto a consumo y cantidad de recursos integrados, cuando además, permite el uso de reconfiguración dinámica y parcial. Es importante resaltar que aunque los valores de consumo son los mínimos para esta familia de componentes, la potencia instantánea consumida sigue siendo muy alta para aquellos sistemas que han de trabajar distribuidos, de forma autónoma, y en la mayoría de los casos alimentados por baterías. Por esta razón, es necesario incluir en el diseño estrategias de ahorro energético para incrementar la usabilidad y el tiempo de vida de la plataforma. La primera estrategia implementada consiste en dividir la plataforma en distintas islas de alimentación de forma que sólo aquellos elementos que sean estrictamente necesarios permanecerán alimentados, cuando el resto puede estar completamente apagado. De esta forma es posible combinar distintos modos de operación y así optimizar enormemente el consumo de energía. El hecho de apagar la FPGA para ahora energía durante los periodos de inactividad, supone la pérdida de la configuración, puesto que la memoria de configuración es una memoria volátil. Para reducir el impacto en el consumo y en el tiempo que supone la reconfiguración total de la plataforma una vez encendida, en este trabajo, se incluye una técnica para la compresión del archivo de configuración de la FPGA, de forma que se consiga una reducción del tiempo de configuración y por ende de la energía consumida. Aunque varios de los requisitos de diseño pueden satisfacerse con el diseño de la plataforma HiReCookie, es necesario seguir optimizando diversos parámetros tales como el consumo energético, la tolerancia a fallos y la capacidad de procesamiento. Esto sólo es posible explotando todas las posibilidades ofrecidas por la arquitectura de procesamiento en la FPGA. Por lo tanto, la segunda parte de esta tesis doctoral está centrada en el diseño de una arquitectura reconfigurable denominada ARTICo3 (Arquitectura Reconfigurable para el Tratamiento Inteligente de Cómputo, Confiabilidad y Consumo de energía) para la mejora de estos parámetros por medio de un uso dinámico de recursos. ARTICo3 es una arquitectura de procesamiento para FPGAs basadas en RAM, con comunicación tipo bus, preparada para dar soporte para la gestión dinámica de los recursos internos de la FPGA en tiempo de ejecución gracias a la inclusión de reconfiguración dinámica y parcial. Gracias a esta capacidad de reconfiguración parcial, es posible adaptar los niveles de capacidad de procesamiento, energía consumida o tolerancia a fallos para responder a las demandas de la aplicación, entorno, o métricas internas del dispositivo mediante la adaptación del número de recursos asignados para cada tarea. Durante esta segunda parte de la tesis se detallan el diseño de la arquitectura, su implementación en la plataforma HiReCookie, así como en otra familia de FPGAs, y su validación por medio de diferentes pruebas y demostraciones. Los principales objetivos que se plantean la arquitectura son los siguientes: • Proponer una metodología basada en un enfoque multi-hilo, como las propuestas por CUDA (por sus siglas en inglés, Compute Unified Device Architecture) u Open CL, en la cual distintos kernels, o unidades de ejecución, se ejecuten en un numero variable de aceleradores hardware sin necesidad de cambios en el código de aplicación. • Proponer un diseño y proporcionar una arquitectura en la que las condiciones de trabajo cambien de forma dinámica dependiendo bien de parámetros externos o bien de parámetros que indiquen el estado de la plataforma. Estos cambios en el punto de trabajo de la arquitectura serán posibles gracias a la reconfiguración dinámica y parcial de aceleradores hardware en tiempo real. • Explotar las posibilidades de procesamiento concurrente, incluso en una arquitectura basada en bus, por medio de la optimización de las transacciones en ráfaga de datos hacia los aceleradores. •Aprovechar las ventajas ofrecidas por la aceleración lograda por módulos puramente hardware para conseguir una mejor eficiencia energética. • Ser capaces de cambiar los niveles de redundancia de hardware de forma dinámica según las necesidades del sistema en tiempo real y sin cambios para el código de aplicación. • Proponer una capa de abstracción entre el código de aplicación y el uso dinámico de los recursos de la FPGA. El diseño en FPGAs permite la utilización de módulos hardware específicamente creados para una aplicación concreta. De esta forma es posible obtener rendimientos mucho mayores que en el caso de las arquitecturas de propósito general. Además, algunas FPGAs permiten la reconfiguración dinámica y parcial de ciertas partes de su lógica en tiempo de ejecución, lo cual dota al diseño de una gran flexibilidad. Los fabricantes de FPGAs ofrecen arquitecturas predefinidas con la posibilidad de añadir bloques prediseñados y poder formar sistemas en chip de una forma más o menos directa. Sin embargo, la forma en la que estos módulos hardware están organizados dentro de la arquitectura interna ya sea estática o dinámicamente, o la forma en la que la información se intercambia entre ellos, influye enormemente en la capacidad de cómputo y eficiencia energética del sistema. De la misma forma, la capacidad de cargar módulos hardware bajo demanda, permite añadir bloques redundantes que permitan aumentar el nivel de tolerancia a fallos de los sistemas. Sin embargo, la complejidad ligada al diseño de bloques hardware dedicados no debe ser subestimada. Es necesario tener en cuenta que el diseño de un bloque hardware no es sólo su propio diseño, sino también el diseño de sus interfaces, y en algunos casos de los drivers software para su manejo. Además, al añadir más bloques, el espacio de diseño se hace más complejo, y su programación más difícil. Aunque la mayoría de los fabricantes ofrecen interfaces predefinidas, IPs (por sus siglas en inglés, Intelectual Property) comerciales y plantillas para ayudar al diseño de los sistemas, para ser capaces de explotar las posibilidades reales del sistema, es necesario construir arquitecturas sobre las ya establecidas para facilitar el uso del paralelismo, la redundancia, y proporcionar un entorno que soporte la gestión dinámica de los recursos. Para proporcionar este tipo de soporte, ARTICo3 trabaja con un espacio de soluciones formado por tres ejes fundamentales: computación, consumo energético y confiabilidad. De esta forma, cada punto de trabajo se obtiene como una solución de compromiso entre estos tres parámetros. Mediante el uso de la reconfiguración dinámica y parcial y una mejora en la transmisión de los datos entre la memoria principal y los aceleradores, es posible dedicar un número variable de recursos en el tiempo para cada tarea, lo que hace que los recursos internos de la FPGA sean virtualmente ilimitados. Este variación en el tiempo del número de recursos por tarea se puede usar bien para incrementar el nivel de paralelismo, y por ende de aceleración, o bien para aumentar la redundancia, y por lo tanto el nivel de tolerancia a fallos. Al mismo tiempo, usar un numero óptimo de recursos para una tarea mejora el consumo energético ya que bien es posible disminuir la potencia instantánea consumida, o bien el tiempo de procesamiento. Con el objetivo de mantener los niveles de complejidad dentro de unos límites lógicos, es importante que los cambios realizados en el hardware sean totalmente transparentes para el código de aplicación. A este respecto, se incluyen distintos niveles de transparencia: • Transparencia a la escalabilidad: los recursos usados por una misma tarea pueden ser modificados sin que el código de aplicación sufra ningún cambio. • Transparencia al rendimiento: el sistema aumentara su rendimiento cuando la carga de trabajo aumente, sin cambios en el código de aplicación. • Transparencia a la replicación: es posible usar múltiples instancias de un mismo módulo bien para añadir redundancia o bien para incrementar la capacidad de procesamiento. Todo ello sin que el código de aplicación cambie. • Transparencia a la posición: la posición física de los módulos hardware es arbitraria para su direccionamiento desde el código de aplicación. • Transparencia a los fallos: si existe un fallo en un módulo hardware, gracias a la redundancia, el código de aplicación tomará directamente el resultado correcto. • Transparencia a la concurrencia: el hecho de que una tarea sea realizada por más o menos bloques es transparente para el código que la invoca. Por lo tanto, esta tesis doctoral contribuye en dos líneas diferentes. En primer lugar, con el diseño de la plataforma HiReCookie y en segundo lugar con el diseño de la arquitectura ARTICo3. Las principales contribuciones de esta tesis se resumen a continuación. • Arquitectura de la HiReCookie incluyendo: o Compatibilidad con la plataforma Cookies para incrementar las capacidades de esta. o División de la arquitectura en distintas islas de alimentación. o Implementación de los diversos modos de bajo consumo y políticas de despertado del nodo. o Creación de un archivo de configuración de la FPGA comprimido para reducir el tiempo y el consumo de la configuración inicial. • Diseño de la arquitectura reconfigurable para FPGAs basadas en RAM ARTICo3: o Modelo de computación y modos de ejecución inspirados en el modelo de CUDA pero basados en hardware reconfigurable con un número variable de bloques de hilos por cada unidad de ejecución. o Estructura para optimizar las transacciones de datos en ráfaga proporcionando datos en cascada o en paralelo a los distinto módulos incluyendo un proceso de votado por mayoría y operaciones de reducción. o Capa de abstracción entre el procesador principal que incluye el código de aplicación y los recursos asignados para las diferentes tareas. o Arquitectura de los módulos hardware reconfigurables para mantener la escalabilidad añadiendo una la interfaz para las nuevas funcionalidades con un simple acceso a una memoria RAM interna. o Caracterización online de las tareas para proporcionar información a un módulo de gestión de recursos para mejorar la operación en términos de energía y procesamiento cuando además se opera entre distintos nieles de tolerancia a fallos. El documento está dividido en dos partes principales formando un total de cinco capítulos. En primer lugar, después de motivar la necesidad de nuevas plataformas para cubrir las nuevas aplicaciones, se detalla el diseño de la plataforma HiReCookie, sus partes, las posibilidades para bajar el consumo energético y se muestran casos de uso de la plataforma así como pruebas de validación del diseño. La segunda parte del documento describe la arquitectura reconfigurable, su implementación en varias FPGAs, y pruebas de validación en términos de capacidad de procesamiento y consumo energético, incluyendo cómo estos aspectos se ven afectados por el nivel de tolerancia a fallos elegido. Los capítulos a lo largo del documento son los siguientes: El capítulo 1 analiza los principales objetivos, motivación y aspectos teóricos necesarios para seguir el resto del documento. El capítulo 2 está centrado en el diseño de la plataforma HiReCookie y sus posibilidades para disminuir el consumo de energía. El capítulo 3 describe la arquitectura reconfigurable ARTICo3. El capítulo 4 se centra en las pruebas de validación de la arquitectura usando la plataforma HiReCookie para la mayoría de los tests. Un ejemplo de aplicación es mostrado para analizar el funcionamiento de la arquitectura. El capítulo 5 concluye esta tesis doctoral comentando las conclusiones obtenidas, las contribuciones originales del trabajo y resultados y líneas futuras. ABSTRACT This PhD Thesis is framed within the field of dynamically reconfigurable embedded systems, advanced sensor networks and distributed computing. The document is centred on the study of processing solutions for high-performance autonomous distributed systems (HPADS) as well as their evolution towards High performance Computing (HPC) systems. The approach of the study is focused on both platform and processor levels to optimise critical aspects such as computing performance, energy efficiency and fault tolerance. HPADS are considered feedback systems, normally networked and/or distributed, with real-time adaptive and predictive functionality. These systems, as part of more complex systems known as Cyber-Physical Systems (CPSs), can be applied in a wide range of fields such as military, health care, manufacturing, aerospace, etc. For the design of HPADS, high levels of dependability, the definition of suitable models of computation, and the use of methodologies and tools to support scalability and complexity management, are required. The first part of the document studies the different possibilities at platform design level in the state of the art, together with description, development and validation tests of the platform proposed in this work to cope with the previously mentioned requirements. The main objectives targeted by this platform design are the following: • Study the feasibility of using SRAM-based FPGAs as the main processor of the platform in terms of energy consumption and performance for high demanding applications. • Analyse and propose energy management techniques to reduce energy consumption in every stage of the working profile of the platform. • Provide a solution with dynamic partial and wireless remote HW reconfiguration (DPR) to be able to change certain parts of the FPGA design at run time and on demand without interrupting the rest of the system. • Demonstrate the applicability of the platform in different test-bench applications. In order to select the best approach for the platform design in terms of processing alternatives, a study of the evolution of the state-of-the-art platforms is required to analyse how different architectures cope with new more demanding applications and scenarios: security, mixed-critical systems for aerospace, multimedia applications, or military environments, among others. In all these scenarios, important changes in the required processing bandwidth or the complexity of the algorithms used are provoking the migration of the platforms from single microprocessor architectures to multiprocessing and heterogeneous solutions with more instant power consumption but higher energy efficiency. Within these solutions, FPGAs and Systems on Chip including FPGA fabric and dedicated hard processors, offer a good trade of among flexibility, processing performance, energy consumption and price, when they are used in demanding applications where working conditions are very likely to vary over time and high complex algorithms are required. The platform architecture proposed in this PhD Thesis is called HiReCookie. It includes an SRAM-based FPGA as the main and only processing unit. The FPGA selected, the Xilinx Spartan-6 LX150, was at the beginning of this work the best choice in terms of amount of resources and power. Although, the power levels are the lowest of these kind of devices, they can be still very high for distributed systems that normally work powered by batteries. For that reason, it is necessary to include different energy saving possibilities to increase the usability of the platform. In order to reduce energy consumption, the platform architecture is divided into different power islands so that only those parts of the systems that are strictly needed are powered on, while the rest of the islands can be completely switched off. This allows a combination of different low power modes to decrease energy. In addition, one of the most important handicaps of SRAM-based FPGAs is that they are not alive at power up. Therefore, recovering the system from a switch-off state requires to reload the FPGA configuration from a non-volatile memory device. For that reason, this PhD Thesis also proposes a methodology to compress the FPGA configuration file in order to reduce time and energy during the initial configuration process. Although some of the requirements for the design of HPADS are already covered by the design of the HiReCookie platform, it is necessary to continue improving energy efficiency, computing performance and fault tolerance. This is only possible by exploiting all the opportunities provided by the processing architectures configured inside the FPGA. Therefore, the second part of the thesis details the design of the so called ARTICo3 FPGA architecture to enhance the already intrinsic capabilities of the FPGA. ARTICo3 is a DPR-capable bus-based virtual architecture for multiple HW acceleration in SRAM-based FPGAs. The architecture provides support for dynamic resource management in real time. In this way, by using DPR, it will be possible to change the levels of computing performance, energy consumption and fault tolerance on demand by increasing or decreasing the amount of resources used by the different tasks. Apart from the detailed design of the architecture and its implementation in different FPGA devices, different validation tests and comparisons are also shown. The main objectives targeted by this FPGA architecture are listed as follows: • Provide a method based on a multithread approach such as those offered by CUDA (Compute Unified Device Architecture) or OpenCL kernel executions, where kernels are executed in a variable number of HW accelerators without requiring application code changes. • Provide an architecture to dynamically adapt working points according to either self-measured or external parameters in terms of energy consumption, fault tolerance and computing performance. Taking advantage of DPR capabilities, the architecture must provide support for a dynamic use of resources in real time. • Exploit concurrent processing capabilities in a standard bus-based system by optimizing data transactions to and from HW accelerators. • Measure the advantage of HW acceleration as a technique to boost performance to improve processing times and save energy by reducing active times for distributed embedded systems. • Dynamically change the levels of HW redundancy to adapt fault tolerance in real time. • Provide HW abstraction from SW application design. FPGAs give the possibility of designing specific HW blocks for every required task to optimise performance while some of them include the possibility of including DPR. Apart from the possibilities provided by manufacturers, the way these HW modules are organised, addressed and multiplexed in area and time can improve computing performance and energy consumption. At the same time, fault tolerance and security techniques can also be dynamically included using DPR. However, the inherent complexity of designing new HW modules for every application is not negligible. It does not only consist of the HW description, but also the design of drivers and interfaces with the rest of the system, while the design space is widened and more complex to define and program. Even though the tools provided by the majority of manufacturers already include predefined bus interfaces, commercial IPs, and templates to ease application prototyping, it is necessary to improve these capabilities. By adding new architectures on top of them, it is possible to take advantage of parallelization and HW redundancy while providing a framework to ease the use of dynamic resource management. ARTICo3 works within a solution space where working points change at run time in a 3D space defined by three different axes: Computation, Consumption, and Fault Tolerance. Therefore, every working point is found as a trade-off solution among these three axes. By means of DPR, different accelerators can be multiplexed so that the amount of available resources for any application is virtually unlimited. Taking advantage of DPR capabilities and a novel way of transmitting data to the reconfigurable HW accelerators, it is possible to dedicate a dynamically-changing number of resources for a given task in order to either boost computing speed or adding HW redundancy and a voting process to increase fault-tolerance levels. At the same time, using an optimised amount of resources for a given task reduces energy consumption by reducing instant power or computing time. In order to keep level complexity under certain limits, it is important that HW changes are transparent for the application code. Therefore, different levels of transparency are targeted by the system: • Scalability transparency: a task must be able to expand its resources without changing the system structure or application algorithms. • Performance transparency: the system must reconfigure itself as load changes. • Replication transparency: multiple instances of the same task are loaded to increase reliability and performance. • Location transparency: resources are accessed with no knowledge of their location by the application code. • Failure transparency: task must be completed despite a failure in some components. • Concurrency transparency: different tasks will work in a concurrent way transparent to the application code. Therefore, as it can be seen, the Thesis is contributing in two different ways. First with the design of the HiReCookie platform and, second with the design of the ARTICo3 architecture. The main contributions of this PhD Thesis are then listed below: • Architecture of the HiReCookie platform including: o Compatibility of the processing layer for high performance applications with the Cookies Wireless Sensor Network platform for fast prototyping and implementation. o A division of the architecture in power islands. o All the different low-power modes. o The creation of the partial-initial bitstream together with the wake-up policies of the node. • The design of the reconfigurable architecture for SRAM FPGAs: ARTICo3: o A model of computation and execution modes inspired in CUDA but based on reconfigurable HW with a dynamic number of thread blocks per kernel. o A structure to optimise burst data transactions providing coalesced or parallel data to HW accelerators, parallel voting process and reduction operation. o The abstraction provided to the host processor with respect to the operation of the kernels in terms of the number of replicas, modes of operation, location in the reconfigurable area and addressing. o The architecture of the modules representing the thread blocks to make the system scalable by adding functional units only adding an access to a BRAM port. o The online characterization of the kernels to provide information to a scheduler or resource manager in terms of energy consumption and processing time when changing among different fault-tolerance levels, as well as if a kernel is expected to work in the memory-bounded or computing-bounded areas. The document of the Thesis is divided into two main parts with a total of five chapters. First, after motivating the need for new platforms to cover new more demanding applications, the design of the HiReCookie platform, its parts and several partial tests are detailed. The design of the platform alone does not cover all the needs of these applications. Therefore, the second part describes the architecture inside the FPGA, called ARTICo3, proposed in this PhD Thesis. The architecture and its implementation are tested in terms of energy consumption and computing performance showing different possibilities to improve fault tolerance and how this impact in energy and time of processing. Chapter 1 shows the main goals of this PhD Thesis and the technology background required to follow the rest of the document. Chapter 2 shows all the details about the design of the FPGA-based platform HiReCookie. Chapter 3 describes the ARTICo3 architecture. Chapter 4 is focused on the validation tests of the ARTICo3 architecture. An application for proof of concept is explained where typical kernels related to image processing and encryption algorithms are used. Further experimental analyses are performed using these kernels. Chapter 5 concludes the document analysing conclusions, comments about the contributions of the work, and some possible future lines for the work.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesis analiza los antecedentes y el contexto arquitectónico de aquellas obras que se pueden enmarcar dentro del concepto de lo Grande. Arrancando en los movimientos utópicos, megaestructuralistas o radicales de los años sesenta, nos conduce hasta conceptos, proyectos y teorías contemporáneos. Para ello es preciso, definir lo Grande no solo a través de cuestiones dimensionales, sino también de cambio de dimensión espacial y conceptual. Se estudian arquitecturas, que, una vez superado un cierto volumen, magnitud o grado de complejidad, se convierten en un ‘edificio grande’, adquiriendo propiedades de otra naturaleza, generando un cambio o salto entre escalas, o un desplazamiento entre campos, rompiendo los límites habituales de la escala, el tamaño u otras codificaciones con las que se categorizan los proyectos entre la ‘arquitectura’ y la ‘ciudad’. El cuerpo de tesis principal se estructura en dos secciones, ‘Genealogías y asociaciones’ y ‘Desplazamiento de conceptos’, y una Conclusión, que trata de compilar las consideraciones o conclusiones extraídas de lo anterior, construyendo así la propia teoría de lo Grande. Genealogías y asociaciones revisa las formas de conocimiento que contextualizan lo Grande, haciendo un barrido de las estructuras sociales, económicas y políticas, desde una perspectiva y un marco con influencia directa en la arquitectura. Recorre teorías, tesis y proyectos que reflexionan o trabajan en lo Grande y en los límites entre las escalas desde la década de los sesenta hasta hoy día. En ese barrido examina conceptos y condiciones capaces de abrir nuevos paradigmas y escenarios arquitectónicos. El contexto sociocultural que lo enmarca resulta crucial para definir posteriormente conceptos, en un barrido desde la cultura de masas a la sociedad de la información, repasando la influencia y repercusión que ha tenido la tecnología y la globalización en el desarrollo de la arquitectura. Por último, se estudian conceptos entre el espacio y a la política, mediante una análisis que enmarque las posiciones de apoyo, refuerzo o rechazo en la relación de la obra de arquitectura y la naturaleza política que esta adquiere por la mera condición de ser Grande. Desplazamiento de conceptos, ofrece condiciones y ejemplos que permiten definir las ‘propiedades’ de lo Grande, a través de una investigación teórica y analítica de las herramientas y estrategias que operan en estas escalas, para confirmar cómo, desarrollos aparentemente cuantitativos, pueden dar lugar a avances cualitativos o a mutaciones que permitan superar los paradigmas anteriores. El objetivo es la definición del conjunto de instrumentos, estrategias y operaciones que sintetizan los valores de cada concepto, con las que construir una ‘cosmogonía’ sobre el tema, apoyándose para ello en textos de referencia, proyectos paradigmáticos y conceptos derivados de los análisis. Los conceptos a estudio devienen directamente de ciertos atributos y características detectadas en las genealogías de lo Grande. Así, consideramos Grande a aquella arquitectura cuya escala y tamaño ha experimentado lo que definiremos como ‘cambio de dimensiones’, no solo a nivel dimensional, sino también perceptivo, técnico y contextual; su tamaño no solo depende de sus magnitudes sino también de la cantidad de materia que contiene el sistema o que circula por él; que tiene trazas, dotes y propiedades de infraestructura; que está instalada, y por tanto, es reactiva con el medio; por ello, es al mismo tiempo autónoma respecto al todo, aunque relacionada con él; un espacio capaz de aceptar la indeterminación de ciertas partes frente a la especificidad de otras, como forma de admitir la pérdida del control total y el detalle; por tanto, que ha desplazado la planificación y el diseño por la investigación programática y la estrategia operativa. En definitiva una arquitectura que desplaza o muta conceptos, atributos y estrategias de otras disciplinas, de los saltos entre escalas y de los nuevos programas. ABSTRACT The thesis will analyze the architectural background and context of those works which can be framed within the concept of Bigness. From the utopian, megastructuralism and radical movements of the sixties, it will lead to contemporary concepts, projects and theories, and ultimately define a theory of Bigness. It will be necessary to define Bigness or the Large, not only in terms of size, but also considering change in spatial and conceptual dimensions. Its case studies are architectures which, surpassing a certain volume, magnitude or degree of complexity, become a ‘large building’ and acquire characteristics of another nature. This generates a change or ‘leap’ in scale, or a displacement in fields, breaking the conventional limits of scale, size and other codes used to categorise projects within ‘architecture’ or the ‘city’. The main body of the thesis is structured into two sections, Genealogies and Associations and Displacement of Concepts, and the Conclusion, which will compile the considerations and conclusions extracted from the previous parts, building the actual theory of Bigness. The first section, Genealogies and Associations, will review the forms of knowledge which contextualize the Large, covering a spectrum of social, economic and political structures from the framework and perspective of their direct influence on architecture. It will account theories, thesis and projects which reflect or work on Bigness and on the limits between scales from the sixties to today, examining those concepts and conditions which may be useful to unfold new settings and paradigms. As the sociocultural context will also prove crucial in order to later define concepts, a broad sweep will cover from the mass society to the information society, revising the influence and repercussions of technology and globalization on the development of architecture. Lastly, it will study concepts in-between space and politics, by means of a study framing positions of support, assistance or rejection towards the work of architecture, and the political nature the work is given only due to its condition of being Big. The following section, Displacement of Concepts, provides conditions and examples which allow the definition of the ‘characteristics’ of Bigness by means of a theoretical and analytical investigation of the tools and strategies which operate on these scales. This is in order to confirm how apparently quantitative developments can lead to qualitative advances or to mutations that enable the overcoming of previous paradigms. The objective is to define the set of strategies, operations and tools, which synthesize the values of each concept; the grounding for a “cosmogony” of the subject, underpinned by relevant reference texts, paradigmatic projects and concepts stemming from the analyses. The concepts of study arise directly from certain attributes and characteristics detected in Bigness. For this purpose, it is that architecture whose dimensions and size have experienced what we will define as a ‘change of dimensions’, not only of size, but also perceptual, technical and contextual;its size depends not only on its magnitude but also the amount of material that contains or flows through system; which possesses traits, faculties and features of an infrastructure; which is installed, and is therefore reactive with its surroundings; due to this, it will be autonomous with respect to the whole and yet related to it; a space which can accept the undetermined nature of some of its parts as well as the specificity of other parts, acknowledging the loss of total control and detail; and thus, which has displaced planning and design with operational strategies. In conclusion, an architecture that displaces or mutates concepts, attributes and strategies stemming from other disciplines, from the jumps between scales, and from the new programs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mode of access: Internet.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

At head of title : E. Gómez Carillo.