414 resultados para Colecta selectiva


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El Déficit de Atención con o sin hiperactividad (ADD ADHD por su sigla en inglés) es un cuadro que aparece descrito bajo esa denominación por primera vez en 1980 en el DSM III, teniendo luego diversas descripciones en las siguientes ediciones del Manual (DSM III-R 1987, DSM IV 1992). El DSM, a diferencia del CIE 10, se ocupa de describir un repertorio de síntomas sin que esto suponga un abordaje conceptual del cuadro. Es un cuadro que aparece descrito bajo esa denominación por primera vez en 1980 en el DSM III, teniendo luego diversas descripciones en las siguientes ediciones del Manual (DSM III-R 1987, DSM IV 1992). El DSM, a diferencia del CIE 10, se ocupa de describir un repertorio de síntomas sin que esto suponga un abordaje conceptual del cuadro. Es un cuadro que aparece descrito bajo esa denominación por primera vez en 1980 en el DSM III, teniendo luego diversas descripciones en las siguientes ediciones del Manual (DSM III-R 1987, DSM IV 1992). El DSM, a diferencia del CIE 10, se ocupa de describir un repertorio de síntomas sin que esto suponga un abordaje conceptual del cuadro. Metodología: Se realiza un muestreo no probabilístico de niños que cursan 1o año escolar, y que concurren a escuelas pertenecientes a una de las tres categorías establecidas por la ANEP1. Este criterio contempla la incidencia de la variable contexto sociocultural en el problema a estudiar. Se estudian una serie de indicadores vinculados a la función atencional, fundamentalmente la atención selectiva, a través de una estrategia cuanti-cualitativa. Objetivo general: Investigar la función atencional desde el punto de vista cognitivo y afectivo, para contribuir al diagnóstico y tratamiento de las dificultades en la atención. Objetivos específicos: 1) Determinar las características afectivas que presentan los niños con dificultades en la atención 2) Caracterizar la modalidad atencional de los niños con dificultades en la atención 3) Analizar si existen diferencias significativas en el modo de atender (desde el punto de vista cognitivo y afectivo) entre los niños que presentan desatención y los que no la presentan. Los resultados que presentamos corresponden a los datos de la primera escuela: urbana de contexto medio. Conclusiones: Al organizar las conclusiones en función de los objetivos que nos proponemos en la investigación decimos 1) Los niños que presentaron dificultades en la atención (manifiestas o no en el aula) no muestran en sus producciones características afectivas que nos permitan considerarlo un grupo diferenciado. 2) La modalidad atencional (al considerar resultados del Denckla y los subtests estudiados del WISC III) no tiene un patrón común entre los niños que podríamos llamar desatentos (por su comportamiento en clase o por su bajo rendimiento en las pruebas) ya que no siempre tienen bajo rendimiento en ambas pruebas. 3) No existen diferencias significativas en los modos de atender entre los niños que presentaron problemas de atención y los que no lo presentaron. Por todo lo anterior podemos concluir que en la muestra estudiada: Los niños que presentan dificultades en la atención son una población muy heterogénea en los diferentes aspectos estudiados. Podemos pensar que no existe una entidad específica, más bien la desatención parece presentarse como un síntoma. Por otra parte resulta significativo desde el punto de vista de los aspectos afectivos puestos en juego en la función, esto es, una función que se desarrolla en la interacción con otros, la alta frecuencia de dibujos en los que el único personaje es el niño

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En 1960 César Fernández Moreno publica el ensayo Introducción a Macedonio Fernández en el cual se ocupa de contribuir a la legibilidad de la poesía de Macedonio tanto en el marco de su propia teoría del arte como en la tradición de la poesía nacional. El siguiente trabajo se propone considerar este libro una lectura modélica de la manera en que los poetas existenciales del sesenta se vincularon con la tradición literaria argentina. Dado que toda "lectura" de la tradición es necesariamente selectiva, como advirtió Raymond Williams, lo que leyeron los poetas del sesenta por medio de César Fernández Moreno en Macedonio y lo que dejaron de lado evidencia esa relación de los escritores con la tradición, relación que en el caso de Macedonio ha favorecido a lo largo del siglo XX un caso paradigmático de lo que Premat llama un "misreading" productivo

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesina indaga en el ámbito de las Tecnologías de la Información sobre los diferentes desarrollos realizados en la interpretación automática de la semántica de textos y su relación con los Sistemas de Recuperación de Información. Partiendo de una revisión bibliográfica selectiva se busca sistematizar la documentación estableciendo de manera evolutiva los principales antecedentes y técnicas, sintetizando los conceptos fundamentales y resaltando los aspectos que justifican la elección de unos u otros procedimientos en la resolución de los problemas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La educación en la Argentina está articulada bajo criterios sociales establecidos pero que son básicamente arbitrarios y sustentados en supuestos no demostrados que afirman que el conocimiento se construye a partir de ciertos contenidos y no de otros. Dichos criterios no han variado mayormente durante las últimas décadas y siguen utilizándose como plataforma inicial a partir de los cuales se articula la educación posterior del educando. Los sistemas de educación superior en América Latina sufren una crisis a raíz de la creciente internacionalización de las nuevas tecnologías de comunicación e información y de los reclamos de inclusión social de los sectores marginados, entre otras razones. Las tecnologías de compresión digital dan origen a un modelo educativo "en red" caracterizado por un funcionamiento no presencial, mediante el cual se produce la transformación del rol de la Universidad, como centro de descubrimiento y posesión del conocimiento, para convertirse en apenas una intermediaria en la búsqueda del saber y la información. Esta nueva modalidad de educación crece en la medida en que puede cubrir una demanda social de educación superior insatisfecha, conformada básicamente por adultos que trabajan, estudiantes de zonas alejadas de los centros educativos, extranjeros que carecen de opciones educativas y alumnos globalizados. Por ello, la educación virtual nace como una nueva respuesta a viejas demandas. La construcción de una sociedad planetaria y la convivencia del multiculturalismo, además de representar la expresión de sociedades abiertas, que quizás no dispongan de bases comunes de cohesión nacional, debe ser parte de un nuevo proyecto de solidaridad y confraternidad mundial.Resulta sumamente importante que las Universidades de América Latina defiendan su participación como tales en los mercados regionales mediante la adquisición de mayor flexibilidad, actualización y excelencia, para erigirse de esta manera como una opción comparativamente válida. Asimismo, creemos que la educación, entendida como todo el corpus del conocimiento que tiene una persona, no se construye de manera arbitraria sino, por el contrario, de manera selectiva de acuerdo a las posibilidades del educando; y es precisamente sobre la base de esta pormenorizada elección el sustento sobre el cual el alumno llega posteriormente a desarrollos intelectuales superiores. El objetivo del presente trabajo se centra en mostrar la importancia de índole social y política que tienen la flexibilización y la personalización en el currículum de estudios universitarios, al momento de observar el resultado final del ejercicio profesional del graduado. Desde este punto de vista, es fundamental que la elección de los contenidos del plan de estudios de la carrera universitaria estén a cargo del educando, con la dirección de una unidad académica, especialmente en relación con lo que hoy se conoce como "aprendizaje justo a tiempo". Dicho en otras palabras, solamente cuando el educando trasciende ese fundamento institucional e inicial de conocimientos para abrevar en otras fuentes, como las Artes, la Religión, la Filosofía, etc., puede relacionar y comparar conocimientos diferentes entre sí, pero cuya elección obedece fundamentalmente a criterios personales y no meramente institucionales

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta investigación fue realizada en la Facultad de Investigación y Desarrollo Educativos de la Universidad Abierta Interamericana en el marco del Seminario de Investigación III (Trabajo de Campo) de la Carrera de Psicopedagogía durante los años 2009/2010. Fundamentada en un estudio previo de Prácticas de Crianza (PC) en niños con NBI realizadocon la Fundación Ideas durante los años 2008 al 2010. En él se advirtió que el tipo de PC ejercidas en el hogar dificultaría la adaptación de los niños en instituciones formales como la escuela. En consecuencia, el presente estudio indago un grupo de madres cuyos hijos cursaban la escuela primaria y manifestaban problemas escolares. Los objetivos eran develar si las PC podrían estar incidiendo en el desempeño escolar de los niños, y si así fuese comprender sus modalidades y características que asumían. Para lograr tales objetivos se seleccionó una población de madres que eran en ese momento asistidas por la Cátedra de Residencia Clínica del Hospital Escuela de la Universidad Abierta Interamericana durante el 2o semestre del año 2010. Esta población concurría debido a las exigencias planteadas por las escuelas a las que asistían sus hijos que reconocían la manifestación de severos problemas escolares. Considerando que las PC forman parte de un multifacético entramado de factores, se seleccionaron aquellas relativas al hogar y la escuela, abordándoselas desde el discurso materno con entrevistas individuales y grupales. La ausencia de estudios similares sobre este contexto y por las características exploratorias del mismo es que se decidió utilizar como guía de análisis durante el proceso de investigación la Teoría Fundamentada de los Datos, de modo que, por una parte la recolección, transcripción y análisis de entrevistas fueron simultáneas y sucesivas con cada entrada al campo, por la otra los niveles crecientes de abstracción permitieron descubrir aspectos subyacentes a las prácticas. Como generalidad, los hallazgos indicaron que las madres identificaban genuinamente y en distintos campos numerosos problemas escolares en relación a sus hijos. Sin embargo su discurso manifestaba una tendencia que las inclinaba a sobregeneralizar negativamente las acciones de sus hijos, así como la propensión a etiquetar a los niños en virtud de las mencionadas acciones. Se reveló asimismo que las PC que ponían en práctica consistían principalmente en asignaciones de culpa, justificaciones de actos de sus hijos o propios y compensaciones respecto a la historia personal. En coherencia con las prácticas anteriormente expresadas, se descubrieron redes de alianzas itinerantes entre madres y docentes contra el hijo por un lado y madres e hijos contra el docente por el otro. La codificación selectiva condujo a reconocer la tendencia materna de asignar a los sucesos, sus causas y resultados, relacionados con la crianza un locus de control externo. El propósito de este estudio es el de proporcionar una mayor comprensión y conocimientos sobre las prácticas de crianza y su red de relaciones, en este caso particular respecto a los problemas escolares, que sirvan de fundamento para colaborar con las personas en condiciones de proponer alternativas en la escuela y el hogar, así como para la formulación de políticas de intervención contextualizadas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo se realiza una sucinta recopilación de los últimos avances en la investigación aplicada al control del bitter pit en la Estación Experimental de Aula Dei (EEAD-CSIC). Se describen nuevas formulaciones y estrategias de aplicación foliar con calcio, un método físico postcosecha y el método de tinción selectiva de calcio en fruto

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los polímeros de impronta molecular (MIPs) son materiales sintéticos que presentan propiedades de reconocimiento molecular específico hacia determinados compuestos. Estos materiales con “memoria selectiva” presentan un elevado potencial analítico como sustitutos de elementos de reconocimiento de origen biológico para el desarrollo de sensores, como sorbentes en procesos de extracción en fase sólida (SPE) y como fases estacionarias para HPLC y CE. La síntesis de estos materiales se basa en la formación de una estructura polimérica, altamente entrecruzada, alrededor de una molécula que actúa como plantilla que se extrae después de la polimerización. De esta forma, el MIP contendrá sitios de unión que son complementarios a la molécula plantilla en forma, tamaño y distribución de grupos funcionales que permiten su reconocimiento posterior, de forma selectiva Los MIPs suelen presentar ventajas interesantes en comparación con los receptores

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proceso de planificación de una u otra forma ha estado implicado en el desarrollo del turismo, aunque su aplicación no ha sido del todo exitosa. Asimismo la revalorización que está teniendo la planificación en distintos ámbitos, público y privado, tampoco es ajena en el turismo, pero, aún requiere modificaciones en los métodos y técnicas para ser aplicada a un turismo sustentable. Las modificaciones en los métodos para la planificación del turismo sustentable en la Región de Coquimbo, constituyen el objeto de esta investigación. La investigación establece como hipótesis: “La integración de las metodologías de planificación con los principios del turismo sustentable permitiría generar un modelo de planificación turística sustentable, que incorpora los valores del territorio, las necesidades de los visitantes, la participación de la comunidad receptora y es aplicable a la Región de Coquimbo a través de un marco territorial-metodológico”. A partir de esta hipótesis, se define el objetivo general: Elaborar una propuesta de un marco territorial-metodológico para la planificación turística sustentable en la Región de Coquimbo. De este objetivo general se deducen los objetivos específicos relacionados con el análisis de los conceptos y enfoques teóricos de la planificación aplicada al turismo; el estudio de los instrumentos de planificación del desarrollo turístico de la Región de Coquimbo; la determinación de categorías y elementos estructurantes y la elaboración de un marco territorial-metodológico de la planificación para el desarrollo del turismo sustentable en la Región de Coquimbo. La metodología de la investigación es de carácter cualitativo, está relacionada principalmente con la teoría fundamentada o grounded theory y con las teorías procedimentales de la planificación. Ambas metodologías fueron utilizadas en la construcción del modelo genérico y en la elaboración del marco procedimental-territorial. La construcción del modelo genérico se asimiló con la de la teoría en la grounded theory y de esta forma, se generaron conceptos a partir del marco conceptual teórico (conceptualización o abstracción); se construyeron categorías de análisis procedimental, territorial y de turismo sustentable (codificación abierta), se elaboraron categorías síntesis procedimental-territoriales y de turismo sustentable (codificación axial); se analizó la dinámica relacional de las categorías procedimental-territoriales (codificación selectiva) y se estableció el modelo genérico de planificación del turismo sustentable (teoría), que cuenta con dos submodelos: el submodelo de Condiciones Generales y el submodelo de Etapas de la planificación. A partir del modelo genérico se jerarquizaron las categorías definidas y relacionadas en forma dinámica, de acuerdo a las características de la Región de Coquimbo. Conjuntamente se incluyeron los requisitos del turismo sustentable recomendados por el Servicio Nacional de Turismo (SERNATUR) a nivel nacional, regional y comunal y se incorporaron las etapas ausentes en los planes de desarrollo turístico formulados en la Región, para dar origen al marco procedimental-territorial aplicado en la Región de Coquimbo. La investigación entrega como resultado una metodología de planificación para el turismo sustentable (modelo genérico), que al aplicarse a un sistema territorial particular, como es la Región de Coquimbo, genera una nueva metodología específica de planificación para el turismo sustentable de esta región (marco procedimental-territorial). El modelo genérico podrá ser aplicable a cualquier territorio dentro o fuera de la Región de Coquimbo, relevando sus propios valores, las necesidades de los visitantes y la participación de la comunidad y generando sus propios marcos procedimentales—territoriales (considerando los rasgos propios de los territorios, los requisitos del turismo sustentable y corrigiendo las falencias de las planificaciones previas existentes en ese territorio particular). ABSTRACT One way or another the process of planning has been implied in the development of tourism, although its application has not been absolutely successful. Also the revaluation that the planning is having in different scopes, public and private, and tourism is not free from it either, but still it requires modifications in the methods and techniques to be applied to a sustainable tourism. The modifications in the methods for the planning of the sustainable tourism in the Region of Coquimbo constitute the object of this investigation. The research establishes as hypothesis: “The integration of planning methodologies with the principles of the sustainable tourism would allow to generate a model of sustainable tourist planning, that incorporates the values of the territory, the needs of the visitors, the participation of the receiving community and is applicable to the Region of Coquimbo through a territorial-methodologic frame”. From this hypothesis, the general objective is defined: To make a proposal of a territorial-methodologic frame for the sustainable tourist planning in the Region of Coquimbo. From this general objective the specific objectives related to the analysis of the concepts and theoretical approaches of the planning applied to the tourism are deduced; the study of the planning tools of the tourist development of the Region of Coquimbo; the determination of categories and structural elements and the elaboration of a territorial-methodologic frame of the planning for the development of the sustainable tourism in the Region of Coquimbo. The methodology of the investigation is of qualitative character, is related mainly to the based theory or grounded theory and to the procedural theories of the planning. Both methodologies were used in the construction of the generic model and in the elaboration of the procedural-territorial frame. The construction of the generic model assimilated with the one of the theory in grounded theory and thus, concepts from the theoretical conceptual frame were generated (conceptualization or abstraction); categories of procedural, territorial analysis were constructed and of sustainable tourism (open codification), procedural-territorial syntheses categories were elaborated and of sustainable tourism (axial codification); the relational dynamics of the procedural-territorial categories was analyzed (selective codification) and the generic model of sustainable tourism planning was established (theory), that counts with two submodels: the General Conditions submodel and the Stages of planning submodel. From the generic model the categories defined and related in dynamic way were hierarchized, according to the characteristics of the Region of Coquimbo. Together with the recommended requirements of sustainable tourism done by The National Service of Tourism (SERNATUR) were included at national, regional level and communal and the absent stages in the formulated plans of tourist development in the Region were included, to give rise to the applied procedural-territorial frame in the Region of Coquimbo. The research gives as a result a planning methodology for sustainable tourism (generic model), that when being applied to a given territorial system, as it is the Region of Coquimbo, it generates a new specific planning methodology for the sustainable tourism of this region (procedural-territorial frame). The generic model could be applicable to any territory inside or outside the Region of Coquimbo, standing out its own values, the needs of the visitors and the participation of the community generating its own procedural-territorial frames (considering the own features of the territories, the requirements of the sustainable tourism and correcting the mistakes of the previous existing planning in that particular territory).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Todo tipo de trabajos de investigación y desarrollo en el área de la mecanización de la recolección y manipulación de productos hortícolas requieren del conocimiento de las propiedades físicas de dichos productos. Las propiedades físicas más estudiadas hasta el momento incluyen aspectos tan variados y extensos como: fuerzas de desprendimiento y fuerzas de corte (primera fase de la recolección); parámetros físicos .como tamaño forma, peso específico, superficie externa, etc. (esenciales en las diversas fases de la manipulación y del almacenamiento) características de orientación, deslizamiento, y fricción (para el estudio del manejo de los productos); parámetros mecánicos elásticos y viscosos, de la parte carnosa de los frutos (para predecir la resistencia a los daños); absorbencia y reflectancia de las diversas radiaciones ( respuesta selectiva de diversos materiales); características aero-e hidrodinámicas para su utilización en sistemas de transporte y en corrientes fluidas); propiedades ligadas a la madurez y a la calidad: dureza de piel y carne, resistencia a la penetración, al esfuerzo cortante, etc. En los esfuerzos realizados por automatizar la tría y la clasificación de los productos cosechados, la reflexión de la luz en diversas zonas del espectro electromagnético es una de las propiedades que mayores posibilidades ofrece para resolver los diversos problemas planteados (diferencias de aspecto externo, defectos, etc.). Una de las consecuencias inevitables de la manipulación mecánica de los productos hortícolas es la aparición de daños en los mismos, que acarrean las consiguientes pérdidas económicas. Las principales causas de estos daños son compresiones e impactos contra elementos diversos, que causan magulladuras y roturas Se analizan, en base a referencias bibliográficas y a trabajos propios, cada uno de los aspectos arriba mencionados y se estudian algunos ejemplos de aplicación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumen En la última década la tecnología láser se ha convertido en una herramienta imprescindible en la fabricación de dispositivos fotovoltaicos, muy especial¬mente en aquellos basados en tecnología de lámina delgada. Independiente¬mente de crisis coyunturales en el sector, la evolución en los próximos años de estas tecnologías seguirá aprovechándose de la flexibilidad y calidad de proceso de la herramienta láser para la consecución de los dos objetivos básicos que harán de la fotovoltaica una opción energética económicamente viable: la reducción de costes de fabricación y el aumento de eficiencia de los dispositivos. Dentro de las tecnologías fotovoltaicas de lámina delgada, la tecnología de dispositivos basados en silicio amorfo ha tenido un gran desarrollo en sistemas estándar en configuración de superestrato, pero su limitada efi¬ciencia hace que su supervivencia futura pase por el desarrollo de formatos en configuración de substrato sobre materiales flexibles de bajo coste. En esta aproximación, las soluciones industriales basadas en láser actualmente disponibles para la interconexión monolítica de dispositivos no son aplica¬bles, y desde hace años se viene investigando en la búsqueda de soluciones apropiadas para el desarrollo de dichos procesos de interconexión de forma que sean transferibles a la industria. En este contexto, esta Tesis propone una aproximación completamente orig¬inal, demostrando la posibilidad de ejecutar una interconexión completa de estos dispositivos irradiando por el lado de la lámina (es decir de forma com¬patible con la opción de configuración de substrato y, valga la redundancia, con el substrato del dispositivo opaco), y con fuentes láser emitiendo en UV. Este resultado, obtenido por primera vez a nivel internacional con este trabajo, aporta un conocimiento revelador del verdadero potencial de estas fuentes en el desarrollo industrial futuro de estas tecnologías. Si bien muy posiblemente la solución industrial final requiera de una solución mixta con el empleo de fuentes en UV y, posiblemente, en otras longitudes de onda, esta Tesis y su planteamiento novedoso aportan un conocimiento de gran valor a la comunidad internacional por la originalidad del planteamiento seguido, los resultados parciales encontrados en su desarrollo (un número importante de los cuales han aparecido en revistas del JCR que recogen en la actualidad un número muy significativo de citas) y porque saca además a la luz, con las consideraciones físicas pertinentes, las limitaciones intrínsecas que el desarrollo de procesos de ablación directa selectiva con láseres UV en parte de los materiales utilizados presenta en el rango temporal de in¬teracción de ns y ps. En este trabajo se han desarrollado y optimizado los tres pasos estándar de interconexión (los habitualmente denominados Pl, P2 y P3 en la industria fotovoltaica) demostrando las ventajas y limitaciones del uso de fuentes en UV tanto con ancho temporal de ns como de ps. En particular destaca, por el éxito en los resultados obtenidos, el estudio de procesos de ablación selectiva de óxidos conductores transparentes (en este trabajo utilizados tanto como contacto frontal así como posterior en los módulos) que ha generado resultados, de excelente acogida científica a nivel internacional, cuya aplicación trasciende el ámbito de las tecnologías de silicio amorfo en lámina delgada. Además en este trabajo de Tesis, en el desarrollo del objetivo citado, se han puesto a punto técnicas de análisis de los procesos láser, basadas en métodos avanzados de caracterización de materiales (como el uso combi¬nado de la espectroscopia dispersiva de rayos X y la microscopía confocal de barrido) que se presentan como auténticos avances en el desarrollo de técnicas específicas de caracterización para el estudio de los procesos con láser de ablación selectiva de materiales en lámina delgada, procesos que no solo tienen impacto en el ámbito de la fotovoltaica, sino también en la microelectrónica, la biotecnología, la microfabricación, etc. Como resultado adicional, parte de los resultados de este trabajo, han sido aplicados exi¬tosamente por el grupo de investigaci´on en la que la autora desarrolla su labor para conseguir desarrollar procesos de enorme inter´es en otras tec-nolog´ıas fotovoltaicas, como las tecnolog´ıas est´andar de silicio amorfo sobre vidrio en configuraci´on de superestrato o el procesado de capas delgadas en tecnolog´ıas convencionales de silicio cristalino. Por u´ltimo decir que este trabajo ha sido posible por una colaboraci´on muy estrecha entre el Centro L´aser de la UPM, en el que la autora de¬sarrolla su labor, y el Grupo de Silicio Depositado del Centro de Inves¬tigaciones Energ´eticas, Medioambientales y Tecnol´ogicas, CIEMAT, que, junto al Grupo de Energ´ıa Fotovoltaica de la Universidad de Barcelona, han preparado la mayor parte de las muestras utilizadas en este estudio. Dichas colaboraciones se han desarrollado en el marco de varios proyectos de investigaci´on aplicada con subvenci´on pu´blica, tales como el proyecto singular estrat´egico PSE-MICROSIL08 (PSE-120000-2006-6), el proyecto INNDISOL (IPT-420000-2010-6), ambos financiados porel Fondo Europeo de Desarrollo Regional FEDER (UE) ”Una manera de hacer Europa y el MICINN, y los proyectos de Plan Nacional AMIC (ENE2010-21384-C04-´ 02) y CLASICO (ENE2007-6772-C04-04), cuya financiaci´on ha permitido en gran parte llevar a t´ermino este trabajo Abstract In the last decade, the laser technology has turned into an indispensable tool in the production of photovoltaic devices, especially of those based on thin film technology. Regardless the current crisis in the sector, the evolution of these technologies in the upcoming years will keep taking advantage of the flexibility and process quality of the laser tool for the accomplishment of the two basic goals that will convert the photovoltaic energy into economically viable: the manufacture cost reduction and the increase in the efficiency of the devices. Amongst the thin film laser technologies, the technology of devices based on amorphous silicon has had a great development in standard systems of superstrate configuration, but its limited efficiency makes its survival de¬pendant on the development of formats in substrate configuration with low cost flexible materials. In this approach, the laser industrial solutions cur¬rently available for the monolithic interconnection are not applicable, and in the last few years the investigations have been focused on the search of appropriate solutions for the development of such interconnection processes in a way that the same are transferable to the industry. In this context, this Thesis proposes a totally original approach, proving the possibility of executing a full interconnection of these devices by means of irradiation from the film side, i.e., compatible with the substrate con¬figuration, and with UV laser sources. This result, obtained for the first time at international level in this work, provides a revealing knowledge of the true potential of these sources in the future industrial development of these technologies. Even though very probably the final industrial solution will require a combination of the use of UV sources along with other wave¬lengths, this Thesis and its novel approach contribute with a high value to the international community because of the originality of the approach, the partial results found throughout its development (out of which, a large number has appeared in JCR journals that currently accumulate a signifi¬cant number of citations) and brings to light, with the pertinent scientific considerations, the intrinsic limitations that the selective direct ablation processes with UV laser present in the temporal range of interaction of ns and ps for part of the materials used in this study. More particularly, the three standard steps of interconnection (usually de¬nominated P1, P2 and P3 in the photovoltaic industry) have been developed and optimized, showing the advantages as well as the limitations of the use of UV sources in both the ns and ps pulse-width ranges. It is highly remark¬able, because of the success in the obtained results, the study of selective ablation processes in transparent conductive oxide (in this work used as a front and back contact), that has generated results, of excellent interna¬tional scientific reception, whose applications go beyond the scope of thin film photovoltaic technologies based on amorphous silicon. Moreover, in this Thesis, with the development of the mentioned goal, differ¬ent techniques of analysis of laser processes have been fine-tuned, basing the same in advanced methods for material characterization (like the combined use of EDX Analysis and Confocal Laser Scanning Microscopy) that can be presented as true breakthroughs in the development of specific techniques for characterization in the study of laser processes of selective ablation of materials in thin film technologies, processes that not only have impact in the photovoltaic field, but also in those of microelectronics, biotechnology, micro-fabrication, etc. As an additional outcome, part of the results of this work has been suc¬cessfully applied, by the investigation group to which the author belongs, to the development of processes of enormous interest within other photo¬voltaic technologies, such as the standard technologies on amorphous silicon over glass in superstrate configuration or the processing of thin layers in conventional technologies using crystalline silicon. Lastly, it is important to mention that this work has been possible thanks to the close cooperation between the Centro L´aser of the UPM, in which the author develops her work, and the Grupo de Silicio Depositado of Centro de Investigaciones Energ´eticas, Medioambientales y Tecnol´ogicas, CIEMAT, which, along with the Grupo de Energ´ıa Fotovoltaica of Univer¬sidad de Barcelona, has prepared the largest part of the samples utilized in this study. Such collaborations have been carried out in the context of several projects of applied investigation with public funding, like Proyecto Singular Estrat´egico PSE-MICROSIL08 (PSE-120000-2006-6), Proyecto IN-NDISOL (IPT-420000-2010-6), both funded by the European Regional De¬velopment Fund (ERDF), ”Una manera de hacer Europa” and MICINN, and the projects of Plan Nacional AMIC (ENE2010-21384-C04-02) and ´ CLASICO (ENE2007-6772-C04-04), whose funds have enabled the devel-opment of large part of this work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una de las principales causas del ruido en nuestras ciudades es el tráfico rodado. El ruido generado por los vehículos no es sólo debido al motor, sino que existen diversas fuentes de ruido en los mismos, entre las que se puede destacar el ruido de rodadura. Para localizar las causas del ruido e identificar las principales fuentes del mismo se han utilizado en diversos estudios las técnicas de coherencia y las técnicas basadas en arrays. Sin embargo, en la bibliografía existente, no es habitual encontrar el uso de estas técnicas en el sector automovilístico. En esta tesis se parte de la premisa de la posibilidad de usar estas técnicas de medida en coches, para demostrar a la largo de la misma su factibilidad y su bondad para evaluar las fuentes de ruido en dos condiciones distintas: cuando el coche está parado y cuando está en movimiento. Como técnica de coherencia se elige la de Intensidad Selectiva, utilizándose la misma para evaluar la coherencia existente entre el ruido que llega a los oídos del conductor y la intensidad radiada por distintos puntos del motor. Para la localización de fuentes de ruido, las técnicas basadas en array son las que mejores resultados ofrecen. Statistically Optimized Near-field Acoustical Holography (SONAH) es la técnica elegida para la localización y caracterización de las fuentes de ruido en el motor a baja frecuencia. En cambio, Beamforming es la técnica seleccionada para el caso de media-alta frecuencia y para la evaluación de las fuentes de ruido cuando el coche se encuentra en movimiento. Las técnicas propuestas no sólo pueden utilizarse en medidas reales, sino que además proporcionan abundante información y frecen una gran versatilidad a la hora de caracterizar fuentes de ruido. ABSTRACT One of the most important noise causes in our cities is the traffic. The noise generated by the vehicles is not only due to the engine, but there are some other noise sources. Among them the tyre/road noise can be highlighted. Coherence and array based techniques have been used in some research to locate the noise causes and identify the main noise sources. Nevertheless, it is not usual in the literature to find the application of this kind of techniques in the car sector. This Thesis starts taking into account the possibility of using this kind of measurement techniques in cars, to demonstrate their feasability and their quality to evaluate the noise sources under two different conditions: when the car is stopped and when it is in movement. Selective Intensity was chosen as coherence technique, evaluating the coherence between the noise in the driver’s ears and the intensity radiated in different points of the engine. Array based techniques carry out the best results to noise source location. Statistically Optimized Near-field Acoustical Holography (SONAH) is the measurement technique chosen for noise source location and characterization in the engine at low frequency. On the other hand, Beamforming is the technique chosen in the case of medium-high frequency and to characterize the noise sources when the car is in movement. The proposed techniques not only can be used in actual measurements, but also provide a lot of information and are very versatile to noise source characterization.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El LPF_TAGRALIA es un grupo de investigación reconocido de la UPM que trabaja en diversos ámbitos de la Ingeniería Agroforestal y de Biosistemas, entre los que se encuentra el análisis de emisiones de vehículos agrícolas, y el análisis de la calidad y la eficiencia energética en el transporte a larga distancia de productos perecederos, colaborando asimismo con una variedad de grupos y centros de investigación nacionales e internacionales. El primero de estos temas: análisis de emisiones de vehículos agrícolas, es objeto de estudio en el LPF_TAGRALIA desde hace aproximadamente diez años, cuando se materializa y cobra relevancia la aplicación del standard TIER de la agencia de protección ambiental americana (EPA) cuyo disparo de salida tuvo lugar en 1996 con la publicación del TIER I. La adopción en USA y Europa de este standard que regula las emisiones de CO, óxidos de Nitrógeno y 2 partículas de materia de diversa naturaleza (PM) se está produciendo de manera paulatina en función de la potencia de matriculación de los tractores (vehículos de fuera de carretera, off-road vehicles). En la actualidad el standard TIER IV ha de ser verificado mayoritariamente por los tractores, para lo cuál existen dos estrategias básicas: la recirculación de gases de escape (EGR), y la reducción catalítica selectiva (SCR). La verificación del funcionamiento en campo de estas estrategias ha sido materia de análisis y discusión por parte del LPF_TAGRALIA que ejerce desde hace 4 años la labor de Responsable de Ensayos de Campo para el suplemento Maq-Vida Rural, una de las publicaciones más reconocidas por los técnicos que desarrollan su labor en el ámbito de la Ingeniería Rural; los diversos documentos relacionados pueden consultarse en el servicio de acceso abierto también denominado Archivo Digital de la UPM (http://oa.upm.es/).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las células solares de banda intermedia se inventaron en España. Constituyen una propuesta para aumentar la eficiencia de las células solares por encima del límite de Shockley y Queisser para células de un solo gap. El número de ideas para llevarlas a la práctica (desde la utilización de puntos cuánticos a la implantación selectiva de impurezas) se ha ido expandiendo a medida que nuestra comprensión ha ido aumentando. En este artículo repasamos el concepto de célula solar de banda intermedia y algunas de estas ideas para llevarla a la práctica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los nanomateriales han adquirido recientemente un gran interés debido a la gran variedad de aplicaciones que pueden llegar a tener en el ámbito de la biomedicina. Este trabajo recoge las posibilidades tanto diagnósticas como terapéuticas que presentan dos modalidades de nanomateriales: nanopartículas de óxido de hierro y nanopartículas de oro. Para ello, en una primera aproximación se ha llevado a cabo la caracterización de las nanopartículas desde el punto de vista de la biocompatibilidad asociada a su tamaño y al tiempo de contacto o circulación en células y tejidos, ensayada tanto in vitro como in vivo así como la cinética de acumulación de dichas nanopartículas en el organismo vivo. Posteriormente se ha realizado la biofuncionalización de los dos tipos de nanopartículas para reconocer dianas moleculares específicas y poder ser utilizadas en el futuro en dos aplicaciones biomédicas diferentes: diagnóstico de enfermedad de Alzheimer mediante imagen de resonancia magnética y destrucción selectiva de células tumorales mediante hipertermia óptica. ABSTRACT Nanomaterials have recently gained a great interest due to the variety of applications that can have in the field of biomedicine. This work covers both diagnostic and therapeutic possibilities that present two types of nanomaterials: iron oxide nanoparticles and gold nanoparticles. Therefore, in a first approximation it has performed the characterizing of nanoparticles from the standpoint of biocompatibility associated with their size and time of contact or movement in cells and tissues, tested both in vitro and in vivo as well as the kinetics of accumulation of the nanoparticles into the living organism. Subsequently the biofunctionalization of two types of nanoparticles was made to recognize specific molecular targets and can be used in the future in two different biomedical applications: diagnosis of Alzheimer's disease by magnetic resonance imaging and selective destruction of tumor cells by optical hyperthermia.