1000 resultados para Sistemas Sin


Relevância:

70.00% 70.00%

Publicador:

Resumo:

Este proyecto se enmarca en la utlización de métodos formales (más precisamente, en la utilización de teoría de tipos) para garantizar la ausencia de errores en programas. Por un lado se plantea el diseño de nuevos algoritmos de chequeo de tipos. Para ello, se proponen nuevos algoritmos basados en la idea de normalización por evaluación que sean extensibles a otros sistemas de tipos. En el futuro próximo extenderemos resultados que hemos conseguido recientemente [16,17] para obtener: una simplificación de los trabajos realizados para sistemas sin regla eta (acá se estudiarán dos sistemas: a la Martin Löf y a la PTS), la formulación de estos chequeadores para sistemas con variables, generalizar la noción de categoría con familia utilizada para dar semántica a teoría de tipos, obtener una formulación categórica de la noción de normalización por evaluación y finalmente, aplicar estos algoritmos a sistemas con reescrituras. Para los primeros resultados esperados mencionados, nos proponemos como método adaptar las pruebas de [16,17] a los nuevos sistemas. La importancia radica en que permitirán tornar más automatizables (y por ello, más fácilmente utilizables) los asistentes de demostración basados en teoría de tipos. Por otro lado, se utilizará la teoría de tipos para certificar compiladores, intentando llevar adelante la propuesta nunca explorada de [22] de utilizar un enfoque abstracto basado en categorías funtoriales. El método consistirá en certificar el lenguaje "Peal" [29] y luego agregar sucesivamente funcionalidad hasta obtener Forsythe [23]. En este período esperamos poder agregar varias extensiones. La importancia de este proyecto radica en que sólo un compilador certificado garantiza que un programa fuente correcto se compile a un programa objeto correcto. Es por ello, crucial para todo proceso de verificación que se base en verificar código fuente. Finalmente, se abordará la formalización de sistemas con session types. Los mismos han demostrado tener fallas en sus formulaciones [30], por lo que parece conveniente su formalización. Durante la marcha de este proyecto, esperamos tener alguna formalización que dé lugar a un algoritmo de chequeo de tipos y a demostrar las propiedades usuales de los sistemas. La contribución es arrojar un poco de luz sobre estas formulaciones cuyos errores revelan que el tema no ha adquirido aún suficiente madurez o comprensión por parte de la comunidad. This project is about using type theory to garantee program correctness. It follows three different directions: 1) Finding new type-checking algorithms based on normalization by evaluation. First, we would show that recent results like [16,17] extend to other type systems like: Martin-Löf´s type theory without eta rule, PTSs, type systems with variables (in addition to systems in [16,17] which are a la de Bruijn), systems with rewrite rules. This will be done by adjusting the proofs in [16,17] so that they apply to such systems as well. We will also try to obtain a more general definition of categories with families and normalization by evaluation, formulated in categorical terms. We expect this may turn proof-assistants more automatic and useful. 2) Exploring the proposal in [22] to compiler construction for Algol-like languages using functorial categories. According to [22] such approach is suitable for verifying compiler correctness, claim which was never explored. First, the language Peal [29] will be certified in type theory and we will gradually add funtionality to it until a correct compiler for the language Forsythe [23] is obtained. 3) Formilizing systems for session types. Several proposals have shown to be faulty [30]. This means that a formalization of it may contribute to the general understanding of session types.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Actualmente muchas empresas ya sean grandes o pequeñas, se plantean implantar en su organización un sistema de información que les ayude en la toma de decisiones. Una de las tendencias actuales es implantar un sistema de BI (Business Intelligence). Muchas organizaciones implantan este tipo de sistemas sin haber realizado un estudio previo de las necesidades y problemas de la empresa, de los beneficios que se pretenden obtener con la implantación del sistema, de la aceptación y formación de los usuarios, de las herramientas y proveedores de BI,... y así un largo etcétera de situaciones y condiciones que se deberían tener en cuenta para la implantación de esta clase de sistemas en cualquier tipo de organización, ya sea grande o pequeña.En el presente artículo se realiza una síntesis de la amalgama de información existente en los sistemas de BI, se realiza una definición aclaratoria, así como también se expone su estado actual, beneficios, factores de riesgo, pasos para conseguir una implantación exitosa y los componentes y herramientas open source de los sistemas de BI. Primero se exponen las principales herramientas open source existentes en el mercado y se profundiza más especialmente en la Suite open source de BI Pentaho.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

El objetivo general es indagar en diversos sistemas alternativos y aumentativos de comunicación para divulgarlos y convertirlos en un instrumento útil para aquellas personas que tengan interés en la comunicación en general y específicamente con aquellas personas que tienen dificultades para su acceso a través de las vías más comunes como son el habla y la escritura. Es un estudio teórico estructurado en ocho capítulos. En el primer capítulo se analizan los conceptos de comunicación y lenguaje, que son de vital importancia para entender en sí mismos los sitemas alternativos y aumentativos de comunicación, dando más importancia a la comunicación, ya que comprende la utilización de diversos lenguajes o sistemas que pueden ser diferentes al lenguaje oral o escrito. En el segundo capítulo se explican los componentes de los sistemas alternativos de comunicación, su definición y clasificación. En el tercer capítulo se abordan los sistemas de comunicación sin ayuda (es decir, aquellos que no precisan de ningún instrumento ni ayuda técnica aparte del propio cuerpo de la persona que se comunica), donde se profundiza y se realiza un estudio de los gestos de uso común, gestos ideosincrásicos, lenguas de contacto, lenguaje de signos, los sistemas de signos o lenguajes pedagógicos como la dactilología, la palabra complementada, etc. El cuarto capítulo está dedicado a los sistemas de comunicación con ayuda, que requieren por parte del emisor un soporte físico externo a él, para poder emitir los mensajes compuestos por códigos no vocales, porque éstos códigos son símbolos gráfico-visuales que necesitan de un soporte externo donde sustentarse. Dentro de este sistema de comunicación podemos citar, entre otros, a: SPC, sistema Picsyms, Pic, Sistema Bliss y el sistema Braille. La ayuda de las técnicas para la comunicación son tratadas en el capítulo quinto. En éste se hace una clasificación de las mismas, en la que se explican cuáles de estas ayudas son las más visuales, así como también se indica cómo elegir y adecuar estas ayudas. En el sexto capítulo, que está dedicado a los candidatos a usuarios de los sistemas alternativos de comunicación, se hace una breve revisión de las personas que suelen usar los sistemas alternativos y aumentativos de comunicación. El séptimo capítulo alude al proceso de evaluación y toma de decisiones y se determina cómo elegir un determinado sistema de comunicación. Para ellos, en un primer momento se explican los instrumentos y procedimientos que se deben tener en cuenta a la hora de evaluar, y en un segundo momento se explican los principales aspectos que se han de evaluar para determinar qué sistema de comunicación es el más apropiado para un candidato determinado. En el último capítulo, dedicado a experiencias de observación se recogen diversas experiencias de comunicación alternativas en las ciudades españolas de Madrid y Salamanca.. Las conclusiones son: 1-.Es relevante la independencia que existe entre los conceptos de comunicación y de lenguaje. Se considera de vital importancia el hecho de comunicarse con todas las personas, independientemente de la discapacidad que tenga o del lenguaje que utilicen. 2-.A nadie se le puede negar el derecho que tiene a participar y a beneficiarse de todos los recursos disponibles para lograr una formación más eficaz. 3-.A pesar de que existe una clara clasificación y diferenciadición entre sistemas con ayuda y sistemas sin ayuda, se pueden combinar entre sí, siempre con la intención de proporcionar o mejorar la comunicación del usuario. 4-.Es importante luchar por el reconocimiento del lenguaje de signos como lengua de la comunidad sorda, aunque en muchos contextos y situaciones se utilice como Sistema Auxiliar de Comunicación. 5-.Hay que señalar la importancia que han tenido los lenguajes pedagógicos surgidos en el ámbito de la educación y/o de la rehabilitación, para servir de apoyo al lenguaje oral. 6-.Es clave el entrenamiento en los sistemas de comunicación tanto para los propios usuarios como para sus familias, educadores, en definitiva, las personas que le rodean. Así mismo, se ha de hacer incapié en la importancia que tiene el fomentar en los usuarios de los sistemas alternativos de comunicación la intención de acción, la intención de comunicarse e inteactuar con las personas que lo rodean. 7-.Debe darse carácter flexible e interdisciplinar al elegir un determinado sistema de comunicación o las ayudas técnicas que pueden precisar los usuarios, contando con todas los profesionales posibles, con el propio usuario, con la familia,... 8-.Los sistemas de comunicación que se elijan como óptima para un indivíduo, han de estar basados en las competencias que él tiene o que podrá conseguir, y no sólo en las dificultades, deficiencias o patologías de los mismos.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

1)Ofrecer unas alternativas a la comunicación para aumentar el desarrollo personal e intercambio social. 2) Revisar y llevar a cabo una valoración crítica de algunos métodos comunicativos, dedicando una especial atención al sistema Bliss. Este estudio consta de tres partes bien diferenciadas. La primera está dedicada a describir las deficiencias de los sujetos a los que va dirigido, en su doble perspectiva: dificultad para llegar a formular mensajes orales cuya raíz es expresiva o receptiva. La segunda parte está centrada en recoger los principales sistemas y técnicas con las que pueden contar estos sujetos. Se hace una diferenciación entre sistemas sin ayuda o con ayuda técnica. Los primeros tienen una larga historia, Los deficientes auditivos son los primeros en contar con un medio codificado diferente al verbal. Los segundos, están teniendo actualmente un importante desarrollo en personas con problemas físicos graves, ofreciendo multitud de posibilidades de aplicación. Por último, la tercera parte, aborda -como en las anteriores, a nivel teórico- la valoración de las posibilidades, habilidades y necesidades comunicativas de sujetos no orales, asesorando sobre los programas y ayudas de comunicación a emplear. 1) La dificultad de controlar movimientos limita la capacidad de tener intercambios positivos con personas y objetos de su entorno. Esto va a repercutir en forma negativa en adquirir las habilidades lingüísticas necesarias. La falta de experiencia de manipulación de objetos dificultad la adquisición del nivel sensorio-motriz, estadio indispensable para instaurar las bases del lenguaje. 2) Se considera el lenguaje como sinónimo de habla y no de comunicación. No se concibe que el niño pueda comunicar a través de otros medios. A las personas que viven con él les resulta más difícil comunicarse y no se esfuerzan en absoluto con él, con lo cual se inhibe cualquier situación comunicativa. 3) Ante situaciones de carencia y déficit se hace imprescindible poner una serie de medios. Es necesario dar pautas concretas y realistas a los padres y personas que se van a comunicar con el niño, para que se consiga una interacción correcta con su entorno. 4) Es necesario poner énfasis en los aspectos sociales y funcionales de la comunicación y el lenguaje. Es necesario que el niño tenga necesidad de decir algo. En este sentido, se crea como imprescindibles la facilitación del desarrollo de la representación simbólica. 5) Las ayudas técnicas y los sistemas de comunicación alternativos tienen mucho que aportar en esto, unas veces sólo se utilizará como recurso el propio cuerpo. Otras, se recurrirá a la tecnología. En el primer caso los métodos gestuales y el lenguaje de signos. En el segundo caso, será el material de apoyo el que ayude. Estos sistemas alternativos al habla favorecen el progreso de determinadas habilidades cognitivas que se han señalado como imprescindible para la adquisición del lenguaje. También favorecen el desarrollo de habilidades de representación o simbolización y comportamientos de comunicación intencional. Podrían servir como puente entre habilidades prelingüisticas de representación y el lenguaje propiamente dicho.6) Es necesario pues, si se quiere sacar el máximo partido a estos instrumentos, la adecuada utilización. En este sentido, la elección de los medios más adecuados par cada niño en concreto, constituye una cuestión de suma importancia.7) Estos sistemas parece que se contraponen a que el niño adquiera el lenguaje por técnicas habituales de rehabilitación logopédica, pero, por el contrario, lo ideal es combinar ambas técnicas con el fin de facilitar actitudes y habilidades propias de la comunicación concebida en el amplio sentido de la palabra.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Programa de doctorado:Sistemas Inteligentes y Aplicaciones Numéricas en Ingeniería.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Este proyecto se enmarca en la utlización de métodos formales (más precisamente, en la utilización de teoría de tipos) para garantizar la ausencia de errores en programas. Por un lado se plantea el diseño de nuevos algoritmos de chequeo de tipos. Para ello, se proponen nuevos algoritmos basados en la idea de normalización por evaluación que sean extensibles a otros sistemas de tipos. En el futuro próximo extenderemos resultados que hemos conseguido recientemente [16,17] para obtener: una simplificación de los trabajos realizados para sistemas sin regla eta (acá se estudiarán dos sistemas: a la Martin Löf y a la PTS), la formulación de estos chequeadores para sistemas con variables, generalizar la noción de categoría con familia utilizada para dar semántica a teoría de tipos, obtener una formulación categórica de la noción de normalización por evaluación y finalmente, aplicar estos algoritmos a sistemas con reescrituras. Para los primeros resultados esperados mencionados, nos proponemos como método adaptar las pruebas de [16,17] a los nuevos sistemas. La importancia radica en que permitirán tornar más automatizables (y por ello, más fácilmente utilizables) los asistentes de demostración basados en teoría de tipos. Por otro lado, se utilizará la teoría de tipos para certificar compiladores, intentando llevar adelante la propuesta nunca explorada de [22] de utilizar un enfoque abstracto basado en categorías funtoriales. El método consistirá en certificar el lenguaje "Peal" [29] y luego agregar sucesivamente funcionalidad hasta obtener Forsythe [23]. En este período esperamos poder agregar varias extensiones. La importancia de este proyecto radica en que sólo un compilador certificado garantiza que un programa fuente correcto se compile a un programa objeto correcto. Es por ello, crucial para todo proceso de verificación que se base en verificar código fuente. Finalmente, se abordará la formalización de sistemas con session types. Los mismos han demostrado tener fallas en sus formulaciones [30], por lo que parece conveniente su formalización. Durante la marcha de este proyecto, esperamos tener alguna formalización que dé lugar a un algoritmo de chequeo de tipos y a demostrar las propiedades usuales de los sistemas. La contribución es arrojar un poco de luz sobre estas formulaciones cuyos errores revelan que el tema no ha adquirido aún suficiente madurez o comprensión por parte de la comunidad.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La primera necesidad de los peces es la higiene. La elaboración de Programas de Gestión Sanitaria (PGS) aplicables a la industria, dentro de un marco realista y eficiente, pueden contribuir positivamente a la mejora sistemática de la productividad, afectando no sólo a la cantidad y calidad del producto, sino directamente a la eficiencia económica de la empresa. Las principales normas deben quedar reflejadas dentro de un Plan de Control Sanitario (PCS) de la instalación, normas que deben ser de obligado cumplimiento, tanto para los trabajadores como para las visitas. El seguimiento del PCS se realiza mediante la aplicación de un Sistema de Análisis de Peligros y Puntos Críticos de Control (APPCC), sistema que forma parte, a su vez, del Sistema de Gestión de la Calidad (SGC). No será factible la aplicación de ninguno de estos programas, planes y sistemas sin un uso racional del autocontrol. Hygiene is the first need that fish have. The elaboration of the Sanitary Management Programs (SMP) which industrial application, inside a realistic and efficient framework, could contribute positively to the systematic improvement of the production, affecting not only to the quantity and quality of the product, but that affect directly to the economic efficiency of the company. The main norms will be reflected in a Sanitary Control Plan (SCP) of the facilities, these norms must be obligatory fulfilment for the workers and visits. The monitoring of the SCP will do meanly the application of the Hazard Analysis and Critical Control Point (HACCP), system that it is a part, also, of the Quality Management System (QMS). It is not possible, the application of any of this programs, plans and systems, without a rational use of the auto control processes.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El objetivo de este trabajo es el de proponer un nuevo sistema de análisis descriptivo de fitolitos de sílice. Anteriormente se habían realizado otros sistemas de análisis descriptivos para este tipo de fitolitos, especialmente en Estados Unidos. Estos sistemas, sin embargo, planteaban una serie de problemas para su aplicación en el área mediterránea, como es la falta de uniformidad de criterios y el estar centrados, básicamente, en el estudio de plantas del continente americano.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La adaptación a la vida extrauterina es un proceso fisiológico de gran complejidad. En ella participan prácticamente todos los órganos y sistemas; sin embargo, se consideran...

Relevância:

60.00% 60.00%

Publicador:

Resumo:

En este estudio se evaluó la sostenibilidad de los agroecosistemas tradicionales y alternativos de producción de maíz en tres Ejidos de la Región Selva de Chiapas, mediante la aplicación del enfoque agroecológico (MESMIS). El estudio se realizó en dos ciclos agrícolas: milpa y tornamil. En el primero se evaluaron los sistemas de roza-tumba-quema (R‑T‑Q), sin quema y en sucesión de nescafé (Mucuna deeringiana Bort.). En el segundo ciclo se analizaron tres sistemas sin quema con diferentes periodos de nescafé, y se modificó la densidad poblacional para analizar su efecto sobre la producción. Los valores de los indicadores económicos y sociales se obtuvieron a través de técnicas participativas. En la milpa se determinó el efecto positivo del fuego en el control de las arvenses y de la plaga Diatraea liniolata (Walker). Los sistemas alternativos con uso de abono verde presentaron mejores resultados en los aspectos agronómicos. Los sistemas con modificación de la densidad poblacional obtuvieron un mayor rendimiento de grano y una mayor rentabilidad financiera. En el análisis final integrado, los sistemas alternativos obtuvieron mejores resultados, aunque los sistemas de R‑T‑Q, por la adaptación al medio ambiente, obtuvieron resultados positivos en algunas variables. Por tanto, su uso en la región constituye una realidad etnocultural lejos de desaparecer en el futuro cercano.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Abstract Web 2.0 applications enabled users to classify information resources using their own vocabularies. The bottom-up nature of these user-generated classification systems have turned them into interesting knowledge sources, since they provide a rich terminology generated by potentially large user communities. Previous research has shown that it is possible to elicit some emergent semantics from the aggregation of individual classifications in these systems. However the generation of ontologies from them is still an open research problem. In this thesis we address the problem of how to tap into user-generated classification systems for building domain ontologies. Our objective is to design a method to develop domain ontologies from user-generated classifications systems. To do so, we rely on ontologies in the Web of Data to formalize the semantics of the knowledge collected from the classification system. Current ontology development methodologies have recognized the importance of reusing knowledge from existing resources. Thus, our work is framed within the NeOn methodology scenario for building ontologies by reusing and reengineering non-ontological resources. The main contributions of this work are: An integrated method to develop ontologies from user-generated classification systems. With this method we extract a domain terminology from the classification system and then we formalize the semantics of this terminology by reusing ontologies in the Web of Data. Identification and adaptation of existing techniques for implementing the activities in the method so that they can fulfill the requirements of each activity. A novel study about emerging semantics in user-generated lists. Resumen La web 2.0 permitió a los usuarios clasificar recursos de información usando su propio vocabulario. Estos sistemas de clasificación generados por usuarios son recursos interesantes para la extracción de conocimiento debido principalmente a que proveen una extensa terminología generada por grandes comunidades de usuarios. Se ha demostrado en investigaciones previas que es posible obtener una semántica emergente de estos sistemas. Sin embargo la generación de ontologías a partir de ellos es todavía un problema de investigación abierto. Esta tesis trata el problema de cómo aprovechar los sistemas de clasificación generados por usuarios en la construcción de ontologías de dominio. Así el objetivo de la tesis es diseñar un método para desarrollar ontologías de dominio a partir de sistemas de clasificación generados por usuarios. El método propuesto reutiliza conceptualizaciones existentes en ontologías publicadas en la Web de Datos para formalizar la semántica del conocimiento que se extrae del sistema de clasificación. Por tanto, este trabajo está enmarcado dentro del escenario para desarrollar ontologías mediante la reutilización y reingeniería de recursos no ontológicos que se ha definido en la Metodología NeOn. Las principales contribuciones de este trabajo son: Un método integrado para desarrollar una ontología de dominio a partir de sistemas de clasificación generados por usuarios. En este método se extrae una terminología de dominio del sistema de clasificación y posteriormente se formaliza su semántica reutilizando ontologías en la Web de Datos. La identificación y adaptación de un conjunto de técnicas para implementar las actividades propuestas en el método de tal manera que puedan cumplir automáticamente los requerimientos de cada actividad. Un novedoso estudio acerca de la semántica emergente en las listas generadas por usuarios en la Web.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El objetivo principal de esta Tesis es extender la utilización del “Soft- Computing” para el control de vehículos sin piloto utilizando visión. Este trabajo va más allá de los típicos sistemas de control utilizados en entornos altamente controlados, demonstrando la fuerza y versatilidad de la lógica difusa (Fuzzy Logic) para controlar vehículos aéreos y terrestres en un abanico de applicaciones diferentes. Para esta Tesis se ha realizado un gran número de pruebas reales en las cuales los controladores difusos han manejado una plataforma visual “pan-and-tilt”, un helicoptero, un coche comercial y hasta dos tipos de quadrirotores. El uso del método de optimización “Cross-Entropy” ha sido utilizado para mejorar el comportamiento de algunos de los controladores borrosos. Todos los controladores difusos presentados en ésta Tesis han sido implementados utilizando un código desarrollado por el candidato para tal efecto, llamado MOFS (Miguel Olivares’ Fuzzy Software). Diferentes algoritmos visuales han sido utilizados para adquirir la informaci´on visual del entorno, “Cmashift”, descomposición de la homografía y detección de marcas de realidad aumentada, entre otros. Dicha información visual ha sido utilizada como entrada de los controladores difusos para comandar los vehículos en las diferentes applicaciones autonomas. El volante de un vehículo comercial ha sido controlado para realizar pruebas de conducción autónoma en condiciones de tráfico similares a las de una ciudad. El sistema ha llegado a completar con éxito pruebas de más de 6 km sin ninguna interacción humana, mediante el seguimiento de una línea pintada en el suelo. El limitado campo visual del sistema no ha sido impedimento para alcanzar velocidades de hasta 48 km/h y ser guiado autonomamente en curvas de radio reducido. Objetos estáticos y móviles han sido seguidos desde un helicoptero no tripulado, mediante el control de una plataforma visual “pan-and-tilt”. ´Éste mismo helicoptero ha sido controlado completamente para su aterrizaje autonomo, mediante el control del movimiento lateral (roll), horizontal (pitch) y de altitud. El seguimiento de objetos volantes ha sido resulto mediante el control horizontal (pitch) y de orientación (heading) de un quadrirotor. Para tareas de evitación de obstáculos se ha implementado un controlador difuso para el manejo de la orientación (heading) de un quadrirotor. En el campo de la optimización de controladores se ha aportado al estado del arte una extensión del uso del método “Cross-Entropy”. Está Tesis presenta una novedosa implementación de dicho método para la optimización de las ganancias, la posición y medida de los conjuntos de las funciones de pertenecia y el peso de las reglas para mejorar el comportamiento de un controlador difuso. Dichos procesos de optimización se han realizado utilizando “ROS” y “Matlab Simulink” para obtener mejores resultados para la evitación de colisiones con vehículos aéreos no tripulados. Ésta Tesis demuestra que los controladores implementados con lógica difusa son altamente capaces de controlador sistemas sin tener en cuenta el modelo del vehículo a controlador en entornos altamente perturbables con un sensor de bajo coste como es una cámara. El ruido presentes causado por los cambios de iluminación en la adquisición de imágenes y la alta incertidumbre en la detección visual han sido manejados satisfactoriamente por ésta técnica de de “Soft-Computing” para distintas aplicaciones tanto con vehículos aéreos como terrestres.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

En las últimas décadas, la agricultura sostenible ha sido objeto de gran interés y debate académico, no sólo en términos conceptuales, sino también en términos metodológicos. La persistencia de la inseguridad alimentaria y el deterioro de los recursos naturales en muchas regiones del mundo, ha provocado el surgimiento de numerosas iniciativas centradas en revitalizar la agricultura campesina así como renovadas discusiones sobre el rol que juega la agricultura como motor de desarrollo y principal actividad para alivio de la pobreza. Por ello, cuando hablamos de evaluar sistemas campesinos de montaña, debemos considerar tanto la dimensión alimentaria como las especificidades propias de los sistemas montañosos como base fundamental de la sostenibilidad. Al evaluar la contribución que han hecho alternativas tecnológicas y de manejo en la mejora de la sostenibilidad y la seguridad alimentaria de los sistemas campesinos de montaña en Mesoamérica, surgen tres preguntas de investigación: • ¿Se está evaluando la sostenibilidad de los sistemas campesinos teniendo en cuenta la variabilidad climática, la participación de los agricultores y las dinámicas temporales? • ¿Podemos rescatar tendencias comunes en estos sistemas y extrapolar los resultados a otras zonas? • ¿Son inequívocamente positivas las alternativas propuestas que se han llevado a cabo? En este trabajo se presentan tres evaluaciones de sostenibilidad que tratan de poner de manifiesto cuáles son los retos y oportunidades que enfrentan actualmente los sistemas campesinos de montaña. En primer lugar, se evalúan tres sistemas de manejo agrícola bajo dos años meteorológicamente contrastantes. Se determinó que durante el año que experimentó lluvias abundantes y temperaturas moderadas, los sistemas de bajos insumos, basados en el uso de abonos orgánicos y rotación de cultivos, obtuvieron los mejores resultados en indicadores ecológicos y similares resultados en los económicos y sociales que el sistema de altos insumos químicos. En el segundo año, con heladas tempranas y sequía invernal, la productividad se redujo para todos los sistemas pero los sistemas más diversificados (en variedades de maíz y/o siembra de otros cultivos) pudieron resistir mejor los contratiempos climáticos. En segundo lugar, se evalúa el grado de conocimiento (percepción) campesino para determinar los factores claves que determinan la sostenibilidad de sus sistemas y su seguridad alimentaria. Se determinó que los principales puntos críticos identificados por los campesinos (tamaño de parcela y pendiente del terreno) afectan de forma significativa a cuestiones de índole económica, pero no son capaces de explicar los desequilibrios alimenticios existentes. Realizando un análisis comparativo entre comunidades que presentaban buenos y malos resultados en cuanto a aporte energético y proteico, se determinó que la seguridad alimentaria estaba relacionada con la sostenibilidad de los sistemas y que concretamente estaba ligada a los atributos de equidad y autonomía. Otro resultado destacable fue que las comunidades más marginales y con mayor dificultad de acceso mostraron mayores niveles de inseguridad alimentaria, pero la variabilidad intergrupal fue muy alta. Eso demuestra que la seguridad alimentaria y nutricional forma parte de un complejo sistema de estrategias de autoabastecimiento ligada a la idiosincrasia misma de cada uno de los hogares. En tercer lugar, se evaluó el desempeño de las escuelas de campo de agricultores (ECAs) en la mejora de la sostenibilidad y la seguridad alimentaria de un sistema campesino de montaña. Para ver el efecto del impacto de estas metodologías a largo plazo, se estudiaron tres comunidades donde se habían implementado ECAs hace 8, 5 y 3 años. Encontramos que el impacto fue progresivo ya que fue la comunidad más antigua la que mejores valores obtuvo. El impacto de las ECAs fue rápido y persistente en los indicadores relacionados con la participación, el acceso a servicios básicos y la conservación de los recursos naturales. El estudio demostró un claro potencial de las ECAs en la mejora general de la sostenibilidad y la seguridad alimentaria de estos sistemas, sin embargo se observó una relación directa entre el aumento de producción agrícola y el uso de insumos externos, lo que puede suponer un punto crítico para los ideales sostenibles. ABSTRACT During the last decades, sustainable agriculture has been the subject of considerable academic interest and debate, not only in conceptual terms, but also in methodological ones. The persistence of high levels of environmental degradation and food insecurity in many regions has led to new initiatives focused on revitalizing peasant agriculture and renewed discussions of the role of sustainable agriculture as an engine for development, environmental conservation and poverty alleviation. Therefore, to assess mountain farming systems, we must consider food dimension and taking into account the specificities of the mountain systems as the foundation of sustainability. When evaluating contribution of technological and management alternative proposals in achieving sustainability and food security for peasant farming systems in Mesoamerican highlands, three research questions arise: • Is sustainability of peasant-farming systems being evaluated taking into account climate variability, participation of farmers and temporal dynamics? • Can we rescue common trends in these systems and extrapolate the results to other areas? • What alternative proposals that have been conducted are unequivocally positives? In this document, we present three evaluations of sustainability that try to highlight the challenges and opportunities that currently face mountain farming systems in Mesoamerica. First, we evaluate the sustainability of three agricultural management systems in two contrasting weather years. We determined that during the first year that exposed heavy rains and moderate temperatures, low-input systems, which are based on the use of organic fertilizers and crop rotation, provided better results in terms of ecological indicators and equal results in terms of economic and social indicators than those achieved using a high chemical input system. In the second year, which featured early frosts and a winter drought, productivity declined in all systems; however, the most diversified systems (in terms of the maize varieties grown and the sowing of other crops) more successfully resisted these climatic adversities. Second, we evaluate the farmers’ perception to determine the key drivers for achieving their sustainability and food and nutritional security. We determined that the key factors identified by farmers (landholding size and slope of cropland) exerted significant impacts on economic disparities but did not explain the malnutrition levels. We compared two contrasting hamlets according to their energy and protein supply, one namely Limón Timoté (LT), which did not present food problems and Limón Peña Blanca (LP), which did exhibit food insecurity. The results showed that FNS is linked to sustainability, and it is primarily related to the sustainability attributes of self-reliance and equity. Although the more marginated and inaccessible community exhibited more food insecurity, food and nutritional security depend upon a complex array of self-sufficiency strategies that remain linked to individual household idiosyncrasies. Third, we evaluated the impact of farmer field schools for improving the sustainability and food security of peasant mountain systems. In order to appreciate the long-term impact, we studied three communities where FFSs were implemented eight, five and three years ago, respectively. We found that FFSs have a gradual impact, as the community that first implemented FFSs scores highest. The impact of FFSs was broad and long-lasting for indicators related to participation, access to basic services and conservation of natural resources. This study demonstrates the potential of FFSs, but more attention will have to be paid to critical indicators in order to scale up their potential in the future. We observed a direct relationship between the increase in agricultural production and the use of external inputs, which is a critical point for sustainable ideals.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta tesis doctoral se enmarca dentro del campo de los sistemas embebidos reconfigurables, redes de sensores inalámbricas para aplicaciones de altas prestaciones, y computación distribuida. El documento se centra en el estudio de alternativas de procesamiento para sistemas embebidos autónomos distribuidos de altas prestaciones (por sus siglas en inglés, High-Performance Autonomous Distributed Systems (HPADS)), así como su evolución hacia el procesamiento de alta resolución. El estudio se ha llevado a cabo tanto a nivel de plataforma como a nivel de las arquitecturas de procesamiento dentro de la plataforma con el objetivo de optimizar aspectos tan relevantes como la eficiencia energética, la capacidad de cómputo y la tolerancia a fallos del sistema. Los HPADS son sistemas realimentados, normalmente formados por elementos distribuidos conectados o no en red, con cierta capacidad de adaptación, y con inteligencia suficiente para llevar a cabo labores de prognosis y/o autoevaluación. Esta clase de sistemas suele formar parte de sistemas más complejos llamados sistemas ciber-físicos (por sus siglas en inglés, Cyber-Physical Systems (CPSs)). Los CPSs cubren un espectro enorme de aplicaciones, yendo desde aplicaciones médicas, fabricación, o aplicaciones aeroespaciales, entre otras muchas. Para el diseño de este tipo de sistemas, aspectos tales como la confiabilidad, la definición de modelos de computación, o el uso de metodologías y/o herramientas que faciliten el incremento de la escalabilidad y de la gestión de la complejidad, son fundamentales. La primera parte de esta tesis doctoral se centra en el estudio de aquellas plataformas existentes en el estado del arte que por sus características pueden ser aplicables en el campo de los CPSs, así como en la propuesta de un nuevo diseño de plataforma de altas prestaciones que se ajuste mejor a los nuevos y más exigentes requisitos de las nuevas aplicaciones. Esta primera parte incluye descripción, implementación y validación de la plataforma propuesta, así como conclusiones sobre su usabilidad y sus limitaciones. Los principales objetivos para el diseño de la plataforma propuesta se enumeran a continuación: • Estudiar la viabilidad del uso de una FPGA basada en RAM como principal procesador de la plataforma en cuanto a consumo energético y capacidad de cómputo. • Propuesta de técnicas de gestión del consumo de energía en cada etapa del perfil de trabajo de la plataforma. •Propuestas para la inclusión de reconfiguración dinámica y parcial de la FPGA (por sus siglas en inglés, Dynamic Partial Reconfiguration (DPR)) de forma que sea posible cambiar ciertas partes del sistema en tiempo de ejecución y sin necesidad de interrumpir al resto de las partes. Evaluar su aplicabilidad en el caso de HPADS. Las nuevas aplicaciones y nuevos escenarios a los que se enfrentan los CPSs, imponen nuevos requisitos en cuanto al ancho de banda necesario para el procesamiento de los datos, así como en la adquisición y comunicación de los mismos, además de un claro incremento en la complejidad de los algoritmos empleados. Para poder cumplir con estos nuevos requisitos, las plataformas están migrando desde sistemas tradicionales uni-procesador de 8 bits, a sistemas híbridos hardware-software que incluyen varios procesadores, o varios procesadores y lógica programable. Entre estas nuevas arquitecturas, las FPGAs y los sistemas en chip (por sus siglas en inglés, System on Chip (SoC)) que incluyen procesadores embebidos y lógica programable, proporcionan soluciones con muy buenos resultados en cuanto a consumo energético, precio, capacidad de cómputo y flexibilidad. Estos buenos resultados son aún mejores cuando las aplicaciones tienen altos requisitos de cómputo y cuando las condiciones de trabajo son muy susceptibles de cambiar en tiempo real. La plataforma propuesta en esta tesis doctoral se ha denominado HiReCookie. La arquitectura incluye una FPGA basada en RAM como único procesador, así como un diseño compatible con la plataforma para redes de sensores inalámbricas desarrollada en el Centro de Electrónica Industrial de la Universidad Politécnica de Madrid (CEI-UPM) conocida como Cookies. Esta FPGA, modelo Spartan-6 LX150, era, en el momento de inicio de este trabajo, la mejor opción en cuanto a consumo y cantidad de recursos integrados, cuando además, permite el uso de reconfiguración dinámica y parcial. Es importante resaltar que aunque los valores de consumo son los mínimos para esta familia de componentes, la potencia instantánea consumida sigue siendo muy alta para aquellos sistemas que han de trabajar distribuidos, de forma autónoma, y en la mayoría de los casos alimentados por baterías. Por esta razón, es necesario incluir en el diseño estrategias de ahorro energético para incrementar la usabilidad y el tiempo de vida de la plataforma. La primera estrategia implementada consiste en dividir la plataforma en distintas islas de alimentación de forma que sólo aquellos elementos que sean estrictamente necesarios permanecerán alimentados, cuando el resto puede estar completamente apagado. De esta forma es posible combinar distintos modos de operación y así optimizar enormemente el consumo de energía. El hecho de apagar la FPGA para ahora energía durante los periodos de inactividad, supone la pérdida de la configuración, puesto que la memoria de configuración es una memoria volátil. Para reducir el impacto en el consumo y en el tiempo que supone la reconfiguración total de la plataforma una vez encendida, en este trabajo, se incluye una técnica para la compresión del archivo de configuración de la FPGA, de forma que se consiga una reducción del tiempo de configuración y por ende de la energía consumida. Aunque varios de los requisitos de diseño pueden satisfacerse con el diseño de la plataforma HiReCookie, es necesario seguir optimizando diversos parámetros tales como el consumo energético, la tolerancia a fallos y la capacidad de procesamiento. Esto sólo es posible explotando todas las posibilidades ofrecidas por la arquitectura de procesamiento en la FPGA. Por lo tanto, la segunda parte de esta tesis doctoral está centrada en el diseño de una arquitectura reconfigurable denominada ARTICo3 (Arquitectura Reconfigurable para el Tratamiento Inteligente de Cómputo, Confiabilidad y Consumo de energía) para la mejora de estos parámetros por medio de un uso dinámico de recursos. ARTICo3 es una arquitectura de procesamiento para FPGAs basadas en RAM, con comunicación tipo bus, preparada para dar soporte para la gestión dinámica de los recursos internos de la FPGA en tiempo de ejecución gracias a la inclusión de reconfiguración dinámica y parcial. Gracias a esta capacidad de reconfiguración parcial, es posible adaptar los niveles de capacidad de procesamiento, energía consumida o tolerancia a fallos para responder a las demandas de la aplicación, entorno, o métricas internas del dispositivo mediante la adaptación del número de recursos asignados para cada tarea. Durante esta segunda parte de la tesis se detallan el diseño de la arquitectura, su implementación en la plataforma HiReCookie, así como en otra familia de FPGAs, y su validación por medio de diferentes pruebas y demostraciones. Los principales objetivos que se plantean la arquitectura son los siguientes: • Proponer una metodología basada en un enfoque multi-hilo, como las propuestas por CUDA (por sus siglas en inglés, Compute Unified Device Architecture) u Open CL, en la cual distintos kernels, o unidades de ejecución, se ejecuten en un numero variable de aceleradores hardware sin necesidad de cambios en el código de aplicación. • Proponer un diseño y proporcionar una arquitectura en la que las condiciones de trabajo cambien de forma dinámica dependiendo bien de parámetros externos o bien de parámetros que indiquen el estado de la plataforma. Estos cambios en el punto de trabajo de la arquitectura serán posibles gracias a la reconfiguración dinámica y parcial de aceleradores hardware en tiempo real. • Explotar las posibilidades de procesamiento concurrente, incluso en una arquitectura basada en bus, por medio de la optimización de las transacciones en ráfaga de datos hacia los aceleradores. •Aprovechar las ventajas ofrecidas por la aceleración lograda por módulos puramente hardware para conseguir una mejor eficiencia energética. • Ser capaces de cambiar los niveles de redundancia de hardware de forma dinámica según las necesidades del sistema en tiempo real y sin cambios para el código de aplicación. • Proponer una capa de abstracción entre el código de aplicación y el uso dinámico de los recursos de la FPGA. El diseño en FPGAs permite la utilización de módulos hardware específicamente creados para una aplicación concreta. De esta forma es posible obtener rendimientos mucho mayores que en el caso de las arquitecturas de propósito general. Además, algunas FPGAs permiten la reconfiguración dinámica y parcial de ciertas partes de su lógica en tiempo de ejecución, lo cual dota al diseño de una gran flexibilidad. Los fabricantes de FPGAs ofrecen arquitecturas predefinidas con la posibilidad de añadir bloques prediseñados y poder formar sistemas en chip de una forma más o menos directa. Sin embargo, la forma en la que estos módulos hardware están organizados dentro de la arquitectura interna ya sea estática o dinámicamente, o la forma en la que la información se intercambia entre ellos, influye enormemente en la capacidad de cómputo y eficiencia energética del sistema. De la misma forma, la capacidad de cargar módulos hardware bajo demanda, permite añadir bloques redundantes que permitan aumentar el nivel de tolerancia a fallos de los sistemas. Sin embargo, la complejidad ligada al diseño de bloques hardware dedicados no debe ser subestimada. Es necesario tener en cuenta que el diseño de un bloque hardware no es sólo su propio diseño, sino también el diseño de sus interfaces, y en algunos casos de los drivers software para su manejo. Además, al añadir más bloques, el espacio de diseño se hace más complejo, y su programación más difícil. Aunque la mayoría de los fabricantes ofrecen interfaces predefinidas, IPs (por sus siglas en inglés, Intelectual Property) comerciales y plantillas para ayudar al diseño de los sistemas, para ser capaces de explotar las posibilidades reales del sistema, es necesario construir arquitecturas sobre las ya establecidas para facilitar el uso del paralelismo, la redundancia, y proporcionar un entorno que soporte la gestión dinámica de los recursos. Para proporcionar este tipo de soporte, ARTICo3 trabaja con un espacio de soluciones formado por tres ejes fundamentales: computación, consumo energético y confiabilidad. De esta forma, cada punto de trabajo se obtiene como una solución de compromiso entre estos tres parámetros. Mediante el uso de la reconfiguración dinámica y parcial y una mejora en la transmisión de los datos entre la memoria principal y los aceleradores, es posible dedicar un número variable de recursos en el tiempo para cada tarea, lo que hace que los recursos internos de la FPGA sean virtualmente ilimitados. Este variación en el tiempo del número de recursos por tarea se puede usar bien para incrementar el nivel de paralelismo, y por ende de aceleración, o bien para aumentar la redundancia, y por lo tanto el nivel de tolerancia a fallos. Al mismo tiempo, usar un numero óptimo de recursos para una tarea mejora el consumo energético ya que bien es posible disminuir la potencia instantánea consumida, o bien el tiempo de procesamiento. Con el objetivo de mantener los niveles de complejidad dentro de unos límites lógicos, es importante que los cambios realizados en el hardware sean totalmente transparentes para el código de aplicación. A este respecto, se incluyen distintos niveles de transparencia: • Transparencia a la escalabilidad: los recursos usados por una misma tarea pueden ser modificados sin que el código de aplicación sufra ningún cambio. • Transparencia al rendimiento: el sistema aumentara su rendimiento cuando la carga de trabajo aumente, sin cambios en el código de aplicación. • Transparencia a la replicación: es posible usar múltiples instancias de un mismo módulo bien para añadir redundancia o bien para incrementar la capacidad de procesamiento. Todo ello sin que el código de aplicación cambie. • Transparencia a la posición: la posición física de los módulos hardware es arbitraria para su direccionamiento desde el código de aplicación. • Transparencia a los fallos: si existe un fallo en un módulo hardware, gracias a la redundancia, el código de aplicación tomará directamente el resultado correcto. • Transparencia a la concurrencia: el hecho de que una tarea sea realizada por más o menos bloques es transparente para el código que la invoca. Por lo tanto, esta tesis doctoral contribuye en dos líneas diferentes. En primer lugar, con el diseño de la plataforma HiReCookie y en segundo lugar con el diseño de la arquitectura ARTICo3. Las principales contribuciones de esta tesis se resumen a continuación. • Arquitectura de la HiReCookie incluyendo: o Compatibilidad con la plataforma Cookies para incrementar las capacidades de esta. o División de la arquitectura en distintas islas de alimentación. o Implementación de los diversos modos de bajo consumo y políticas de despertado del nodo. o Creación de un archivo de configuración de la FPGA comprimido para reducir el tiempo y el consumo de la configuración inicial. • Diseño de la arquitectura reconfigurable para FPGAs basadas en RAM ARTICo3: o Modelo de computación y modos de ejecución inspirados en el modelo de CUDA pero basados en hardware reconfigurable con un número variable de bloques de hilos por cada unidad de ejecución. o Estructura para optimizar las transacciones de datos en ráfaga proporcionando datos en cascada o en paralelo a los distinto módulos incluyendo un proceso de votado por mayoría y operaciones de reducción. o Capa de abstracción entre el procesador principal que incluye el código de aplicación y los recursos asignados para las diferentes tareas. o Arquitectura de los módulos hardware reconfigurables para mantener la escalabilidad añadiendo una la interfaz para las nuevas funcionalidades con un simple acceso a una memoria RAM interna. o Caracterización online de las tareas para proporcionar información a un módulo de gestión de recursos para mejorar la operación en términos de energía y procesamiento cuando además se opera entre distintos nieles de tolerancia a fallos. El documento está dividido en dos partes principales formando un total de cinco capítulos. En primer lugar, después de motivar la necesidad de nuevas plataformas para cubrir las nuevas aplicaciones, se detalla el diseño de la plataforma HiReCookie, sus partes, las posibilidades para bajar el consumo energético y se muestran casos de uso de la plataforma así como pruebas de validación del diseño. La segunda parte del documento describe la arquitectura reconfigurable, su implementación en varias FPGAs, y pruebas de validación en términos de capacidad de procesamiento y consumo energético, incluyendo cómo estos aspectos se ven afectados por el nivel de tolerancia a fallos elegido. Los capítulos a lo largo del documento son los siguientes: El capítulo 1 analiza los principales objetivos, motivación y aspectos teóricos necesarios para seguir el resto del documento. El capítulo 2 está centrado en el diseño de la plataforma HiReCookie y sus posibilidades para disminuir el consumo de energía. El capítulo 3 describe la arquitectura reconfigurable ARTICo3. El capítulo 4 se centra en las pruebas de validación de la arquitectura usando la plataforma HiReCookie para la mayoría de los tests. Un ejemplo de aplicación es mostrado para analizar el funcionamiento de la arquitectura. El capítulo 5 concluye esta tesis doctoral comentando las conclusiones obtenidas, las contribuciones originales del trabajo y resultados y líneas futuras. ABSTRACT This PhD Thesis is framed within the field of dynamically reconfigurable embedded systems, advanced sensor networks and distributed computing. The document is centred on the study of processing solutions for high-performance autonomous distributed systems (HPADS) as well as their evolution towards High performance Computing (HPC) systems. The approach of the study is focused on both platform and processor levels to optimise critical aspects such as computing performance, energy efficiency and fault tolerance. HPADS are considered feedback systems, normally networked and/or distributed, with real-time adaptive and predictive functionality. These systems, as part of more complex systems known as Cyber-Physical Systems (CPSs), can be applied in a wide range of fields such as military, health care, manufacturing, aerospace, etc. For the design of HPADS, high levels of dependability, the definition of suitable models of computation, and the use of methodologies and tools to support scalability and complexity management, are required. The first part of the document studies the different possibilities at platform design level in the state of the art, together with description, development and validation tests of the platform proposed in this work to cope with the previously mentioned requirements. The main objectives targeted by this platform design are the following: • Study the feasibility of using SRAM-based FPGAs as the main processor of the platform in terms of energy consumption and performance for high demanding applications. • Analyse and propose energy management techniques to reduce energy consumption in every stage of the working profile of the platform. • Provide a solution with dynamic partial and wireless remote HW reconfiguration (DPR) to be able to change certain parts of the FPGA design at run time and on demand without interrupting the rest of the system. • Demonstrate the applicability of the platform in different test-bench applications. In order to select the best approach for the platform design in terms of processing alternatives, a study of the evolution of the state-of-the-art platforms is required to analyse how different architectures cope with new more demanding applications and scenarios: security, mixed-critical systems for aerospace, multimedia applications, or military environments, among others. In all these scenarios, important changes in the required processing bandwidth or the complexity of the algorithms used are provoking the migration of the platforms from single microprocessor architectures to multiprocessing and heterogeneous solutions with more instant power consumption but higher energy efficiency. Within these solutions, FPGAs and Systems on Chip including FPGA fabric and dedicated hard processors, offer a good trade of among flexibility, processing performance, energy consumption and price, when they are used in demanding applications where working conditions are very likely to vary over time and high complex algorithms are required. The platform architecture proposed in this PhD Thesis is called HiReCookie. It includes an SRAM-based FPGA as the main and only processing unit. The FPGA selected, the Xilinx Spartan-6 LX150, was at the beginning of this work the best choice in terms of amount of resources and power. Although, the power levels are the lowest of these kind of devices, they can be still very high for distributed systems that normally work powered by batteries. For that reason, it is necessary to include different energy saving possibilities to increase the usability of the platform. In order to reduce energy consumption, the platform architecture is divided into different power islands so that only those parts of the systems that are strictly needed are powered on, while the rest of the islands can be completely switched off. This allows a combination of different low power modes to decrease energy. In addition, one of the most important handicaps of SRAM-based FPGAs is that they are not alive at power up. Therefore, recovering the system from a switch-off state requires to reload the FPGA configuration from a non-volatile memory device. For that reason, this PhD Thesis also proposes a methodology to compress the FPGA configuration file in order to reduce time and energy during the initial configuration process. Although some of the requirements for the design of HPADS are already covered by the design of the HiReCookie platform, it is necessary to continue improving energy efficiency, computing performance and fault tolerance. This is only possible by exploiting all the opportunities provided by the processing architectures configured inside the FPGA. Therefore, the second part of the thesis details the design of the so called ARTICo3 FPGA architecture to enhance the already intrinsic capabilities of the FPGA. ARTICo3 is a DPR-capable bus-based virtual architecture for multiple HW acceleration in SRAM-based FPGAs. The architecture provides support for dynamic resource management in real time. In this way, by using DPR, it will be possible to change the levels of computing performance, energy consumption and fault tolerance on demand by increasing or decreasing the amount of resources used by the different tasks. Apart from the detailed design of the architecture and its implementation in different FPGA devices, different validation tests and comparisons are also shown. The main objectives targeted by this FPGA architecture are listed as follows: • Provide a method based on a multithread approach such as those offered by CUDA (Compute Unified Device Architecture) or OpenCL kernel executions, where kernels are executed in a variable number of HW accelerators without requiring application code changes. • Provide an architecture to dynamically adapt working points according to either self-measured or external parameters in terms of energy consumption, fault tolerance and computing performance. Taking advantage of DPR capabilities, the architecture must provide support for a dynamic use of resources in real time. • Exploit concurrent processing capabilities in a standard bus-based system by optimizing data transactions to and from HW accelerators. • Measure the advantage of HW acceleration as a technique to boost performance to improve processing times and save energy by reducing active times for distributed embedded systems. • Dynamically change the levels of HW redundancy to adapt fault tolerance in real time. • Provide HW abstraction from SW application design. FPGAs give the possibility of designing specific HW blocks for every required task to optimise performance while some of them include the possibility of including DPR. Apart from the possibilities provided by manufacturers, the way these HW modules are organised, addressed and multiplexed in area and time can improve computing performance and energy consumption. At the same time, fault tolerance and security techniques can also be dynamically included using DPR. However, the inherent complexity of designing new HW modules for every application is not negligible. It does not only consist of the HW description, but also the design of drivers and interfaces with the rest of the system, while the design space is widened and more complex to define and program. Even though the tools provided by the majority of manufacturers already include predefined bus interfaces, commercial IPs, and templates to ease application prototyping, it is necessary to improve these capabilities. By adding new architectures on top of them, it is possible to take advantage of parallelization and HW redundancy while providing a framework to ease the use of dynamic resource management. ARTICo3 works within a solution space where working points change at run time in a 3D space defined by three different axes: Computation, Consumption, and Fault Tolerance. Therefore, every working point is found as a trade-off solution among these three axes. By means of DPR, different accelerators can be multiplexed so that the amount of available resources for any application is virtually unlimited. Taking advantage of DPR capabilities and a novel way of transmitting data to the reconfigurable HW accelerators, it is possible to dedicate a dynamically-changing number of resources for a given task in order to either boost computing speed or adding HW redundancy and a voting process to increase fault-tolerance levels. At the same time, using an optimised amount of resources for a given task reduces energy consumption by reducing instant power or computing time. In order to keep level complexity under certain limits, it is important that HW changes are transparent for the application code. Therefore, different levels of transparency are targeted by the system: • Scalability transparency: a task must be able to expand its resources without changing the system structure or application algorithms. • Performance transparency: the system must reconfigure itself as load changes. • Replication transparency: multiple instances of the same task are loaded to increase reliability and performance. • Location transparency: resources are accessed with no knowledge of their location by the application code. • Failure transparency: task must be completed despite a failure in some components. • Concurrency transparency: different tasks will work in a concurrent way transparent to the application code. Therefore, as it can be seen, the Thesis is contributing in two different ways. First with the design of the HiReCookie platform and, second with the design of the ARTICo3 architecture. The main contributions of this PhD Thesis are then listed below: • Architecture of the HiReCookie platform including: o Compatibility of the processing layer for high performance applications with the Cookies Wireless Sensor Network platform for fast prototyping and implementation. o A division of the architecture in power islands. o All the different low-power modes. o The creation of the partial-initial bitstream together with the wake-up policies of the node. • The design of the reconfigurable architecture for SRAM FPGAs: ARTICo3: o A model of computation and execution modes inspired in CUDA but based on reconfigurable HW with a dynamic number of thread blocks per kernel. o A structure to optimise burst data transactions providing coalesced or parallel data to HW accelerators, parallel voting process and reduction operation. o The abstraction provided to the host processor with respect to the operation of the kernels in terms of the number of replicas, modes of operation, location in the reconfigurable area and addressing. o The architecture of the modules representing the thread blocks to make the system scalable by adding functional units only adding an access to a BRAM port. o The online characterization of the kernels to provide information to a scheduler or resource manager in terms of energy consumption and processing time when changing among different fault-tolerance levels, as well as if a kernel is expected to work in the memory-bounded or computing-bounded areas. The document of the Thesis is divided into two main parts with a total of five chapters. First, after motivating the need for new platforms to cover new more demanding applications, the design of the HiReCookie platform, its parts and several partial tests are detailed. The design of the platform alone does not cover all the needs of these applications. Therefore, the second part describes the architecture inside the FPGA, called ARTICo3, proposed in this PhD Thesis. The architecture and its implementation are tested in terms of energy consumption and computing performance showing different possibilities to improve fault tolerance and how this impact in energy and time of processing. Chapter 1 shows the main goals of this PhD Thesis and the technology background required to follow the rest of the document. Chapter 2 shows all the details about the design of the FPGA-based platform HiReCookie. Chapter 3 describes the ARTICo3 architecture. Chapter 4 is focused on the validation tests of the ARTICo3 architecture. An application for proof of concept is explained where typical kernels related to image processing and encryption algorithms are used. Further experimental analyses are performed using these kernels. Chapter 5 concludes the document analysing conclusions, comments about the contributions of the work, and some possible future lines for the work.