899 resultados para Vuelo espacial a la luna
Resumo:
Desde el año 2001 se desarrolla en la EEM N° 31 Libertador General Don José de San Martín de La Plata el Taller de Astronomía y Ciencias del Espacio. En dicho año fue seleccionado como proyecto innovador en el llamado que realizó el Ministerio de Educación de la Nación en el marco del PRODYMES II. El objetivo del proyecto es la difusión de la astronomía dentro del establecimiento, acercando al alumno a la ciencia por medio de diferentes actividades: observación del cielo, manejo del telescopio, obtención de fotografías, asistencia a encuentros semanales, el boletín astronómico y participación en las exposiciones realizadas en el colegio. Posteriormente se incluyeron nuevas actividades, relacionadas con la actividad espacial inscribiendo al establecimiento en proyectos de la NASA y en programas de la ESA (agencia espacial europea). .La experiencia recogida durante estos años muestra que los alumnos se comprometen con las distintas actividades del taller, para muchos de ellos se abre un mundo desconocido comienzan a observar el cielo y comparten con sus compañeros los conocimientos adquiridos.
Resumo:
La categoría del aspecto -"una de las menos manejables de las categorías verbales" (Bybee et al.)- ha sido abordada desde variados marcos teóricos en el campo de la lingüística. Su análisis es todavía incipiente en el marco de los estudios sobre el discurso. Este artículo intentará establecer una interfaz que dé cuenta de la expresión del aspecto en el discurso, al reconocer a la instancia de enunciación que le dio origen. Como uno de los vertimientos figurativos de la temporalidad, el aspecto supone la instalación en el discurso de un actante observador, figura cognitiva que opera como escala de medida antropomorfa en la percepción del tiempo como proceso. Si bien el observador también opera como escala de medida en las dimensiones espacial (estableciendo la distancia) y actorial (evaluando la cualidad del desempeño de los actores), nos concentraremos exclusivamente en la aspectualidad a nivel temporal. El marco teórico adoptado para el análisis es la teoría semiótica de la Escuela de París, de orientación greimasiana, y aportes de la lingüística cognitiva, todos ellos con base en la percepción y la experiencia sensible como fundamento de la significación. El aspecto, en la dimensión temporal, se observa en el español a nivel de la morfología del verbo y en su significado inherente, estableciéndose una interacción entre ambos. Los sucesos en el relato se distribuyen en la cadena sintagmática del relato siguiendo patrones más o menos estables de acuerdo al tipo al que pertenece en relación con su significado interno (Aktionsart), contribuyendo, de esta manera, a la progresión narrativa
Resumo:
El temprano y perdurable interés de Samuel Beckett por las artes pictóricas es conocido y está documentado en sus biografías más exhaustivas. Se manifestó de diversas maneras: en la amistad personal de Beckett con distintos artistas, en sus ensayos sobre pintura y en sus asiduas y concienzudas visitas a galerías y museos. Tal interés surge del atractivo que tienen para Beckett las imágenes en sí: las de su infancia, acuñadas por su memoria, y las de la fe religiosa en la que fue criado, por ejemplo, establecieron una base sobre la cual las imágenes creadas por pintores a los que admiraba acumularon capas de sentidos emocionales y sensoriales para el joven Beckett, como un espejo que refleja aspectos del pasado. En cierto punto, no obstante, el proceso se invierte: el 'espejo' del arte se proyecta hacia el futuro, en la medida en que las creaciones de Beckett son inspiradas y están imbuidas por las imágenes de aquellos pintores. El mismo Beckett señaló la conexión entre algunas de sus obras y pinturas específicas que las habían inspirado. Este trabajo se refiere a la conexión explícita entre Esperando a Godot y la pintura "Dos hombres contemplando la luna", de Caspar David Friedrich, y a aquella entre Not I and "La decapitación de San Juan el bautista", de Michelangelo Merisi da Caravaggio. Aunque no fue declarada por Beckett, se considera también la posible conexión entre Rockaby y pinturas tales como "Whistler's Mother", "La mecedora" de van Gogh o el "Retrato de Margaretha de Geer" de Rembrandt. Finalmente, se tendrá en cuenta la relación entre las posteriores piezas breves de Beckett y algunos aspectos de las artes pictóricas (reflejados en su manejo de la escenografía y el espacio escénico)
Resumo:
En el presente escrito se intenta dar cuenta del uso de una herramienta, el diálogo guionado, en el particular momento del inicio de los trabajos prácticos de la cursada de la materia. En el año 2002 la titular propuso convertir las clases en una experiencia en la cual se pudiesen vivenciar algunos efectos grupales, y a partir de los mismos pensar, a la luz de las herramientas teóricas, los diversos elementos que coproducen esos efectos. En la fundamentación de la propuesta hay un intento de intervenir dentro del ámbito académico sobre ciertos modos de enseñar el quehacer del psicólogo clínico apuntalados en la incorporación de nociones teóricas- conceptuales, que resulta ineficaz, en tanto produce repeticiones de conceptos mas que formación y capacitación para trabajar en y con grupos. Luego de los primeros años de implementación de un dispositivo de trabajos prácticos con un momento de producción grupal y otro de lectura situacional de las producciones grupales estudiadas en la bibliografía-, el dispositivo tecnológico ya era conocido entre los estudiantes, lo cual generaba resistencias. Es con el fin de que sea posible explicitar los supuestos con los que llegan docentes y alumnos a la clase, que se propone e implementa inicialmente el 'diálogo guionado'. El diálogo guionado que se realiza entre los coordinadores de un agrupamiento, en voz alta y frente al conjunto, es un material que forma parte del pensamiento 'íntimo' del coordinador de grupo, en el momento en que los hechos grupales se sucedían. El diálogo pone en evidencia complejos procesos mentales que se juegan en la coordinación grupal y las diversas lecturas de los fenómenos, además de elecciones acerca de la pertinencia y relevancia de ciertas intervenciones. El diálogo guionado tal como ha sido retrabajado al interior de la cátedra para formar parte del primer práctico es un dispositivo técnico pedagógico que consiste en líneas generales en lo siguiente: los dos o tres docentes co-coordinadores del práctico se juntan en un espacio de reunión previa al primer trabajo práctico, e intercambian acerca de expectativas sobre los alumnos, las lecturas, los contenidos, los escritos que realizaran los alumnos a modo de evaluación parcial; en suma, de los supuestos que tienen en relación al dictado de la materia en el cuatrimestre. Se consensúan algunos puntos pertinentes para comunicar. Una vez que los docentes llegan al práctico, solicitan la atención de los estudiantes y les comentan que realizarán un dialogo al modo de una escena que pretenden en un momento posterior se abra a todos. Los docentes co coordinadores hablan entre sí de sus expectativas tomando lo guionado en la reunión previa. Luego se invita a los estudiantes a sumar las voces, de este modo se abre el diálogo al conjunto. El efecto calculado producido en las cursadas ha sido la verbalización de los supuestos operantes tanto en docentes como en alumnos en los inicios de los trabajos prácticos. Esto distiende la obligación sentida por los docentes de generar un espacio de confianza. Se presentan efectos de apertura, curiosidad, buen clima grupal, soltura al hablar, deseos de leer en base a la falta de comprensión de algunos conceptos que han sido introducidos en el dialogo. Se produce un cambio que implica el acortamiento de la distancia entre los estudiantes y docentes que permite empatía y reciprocidad lo cual no incide en la asimetría del rol docente- alumno, pero si en el pie de igualdad necesario para un proceso de pensamiento clínico. De este modo, el uso del diálogo guionado en el inicio de los prácticos ha creado condiciones para mejorar la calidad de la cursada. En la dimensión pedagógica, renueva la manera de pensar la enseñanza. Los contenidos abordados logran una ampliación al incidir la capacitación sobre actitudes y procedimientos. En relación a lo conceptual, se trabajan los contenidos de lo grupal, conformación de equipo, efectos de la disposición espacial, de la mirada, el lenguaje gestual, y las condiciones de inicio de los agrupamientos, entre otros. En relación a los contenidos procedimentales, se adquiere capacidad de diálogo y se aborda la resolución de situaciones problema. En cuanto a los contenidos actitudinales, el diálogo guionado permite la valoración de la importancia del diálogo en la producción del conocimiento, la valoración y respeto por las ideas aportadas por los compañeros, el uso de lenguaje adecuado y no discriminatorio, la aceptación de los diversos puntos de vista, la expresión clara de las propias ideas, la capacidad de demora, y estimula el pensamiento critico sobre las temáticas abordadas
Resumo:
En la actualidad, los bosques secos neotropicales se encuentran restringidos a una pequeña fracción de su área de distribución histórica, debido principalmente a la acelerada pérdida de cobertura vegetal. Es por esta razón que son reconocidos como uno de los ecosistemas más amenazados del mundo. Durante las últimas décadas estos bosques han recibido mayor atención por parte de investigadores, y pese a que el esfuerzo dedicado al estudio y conocimiento de estos bosques no es comparable al de otros bosques de la región, especialmente los ligados a las pluviselvas húmedas, los trabajos llevados a cabo fundamentalmente por botánicos han permitido describir una buena parte de su diversidad florística en amplias regiones del neotrópico, constatar el elevado nivel de endemicidad de su flora y determinar algunos de los factores que determinan su estructura y funcionamiento. Sin embargo, aún existen regiones como la denominada Pacífico Ecuatorial donde la investigación ha sido escaza. El conocimiento de la diversidad biológica así como cuáles son los factores que controlan el funcionamiento y la estructuración de estos bosques resultan prioritarios para poder desarrollar acciones de conservación efectivas. El presente trabajo aporta a la comprensión del funcionamiento de dos sistemas secos tropicales de la región del Pacífico Ecuatorial el matorral seco y el bosque seco del sur del Ecuador. Se estableció una parcela de 9ha en bosque seco con el fin de evaluar asociaciones intraespecíficas e interespecíficas, se registró la diversidad y abundancia de todas las especies leñosas con un dap igual o superior a 5cm, además se obtuvo la ubicación espacial de cada individuo. Adicionalmente se realizaron 109 parcelas a lo largo de 4 de los cantones de la provincia de Loja que conservan en buen estado bosques secos. En el matorral seco se desarrollo un estudio observacional a lo largo de una gradiente estrés climático y dos niveles de manejo no disturbado y pastoreado. En cada nivel se colocaron 2 parcelas dentro de las cuales se registró la abundancia, diversidad y cobertura de todas las especies anuales. Además, se tomaron 9 muestras de suelo en cada parcela para evaluar el banco de semillas del suelo. Los resultados muestran que el bosque seco las relaciones positivas planta-planta juegan un papel fundamental en la estructura florística de las comunidades. Así se pudo observar que a escalas regionales la disponibilidad de agua tiene una relación inversa con la riqueza, encontrándose que áreas con menor disponibilidad de agua generan comunidades vegetales más diversas. Esta respuesta es coherente con la Hipótesis de la Gradiente de Estrés ya que el incremento de las relaciones de facilitación estaría incrementando la cantidad de especies que coexisten a nivel local. Por otro lado a escalas locales las especies de bosque seco tropical muestran un bajo grado de agrupamiento con sus congéneres, lo cual coincide con la propuesta de la “Dependencia Negativa de la Densidad” propuesta por Janzen – Connell. Esta respuesta contribuye al comportamiento acumulador de especies observado en el bosque seco, por lo observado en este trabajo a escalas locales las interacciones positivas planta-planta son predominantes. En el matorral seco montano los resultados muestran que la magnitud de los efectos de las especies ingenieras del ecosistema en la diversidad de especies y la productividad varían a lo largo de gradientes ambientales y a con la escala espacial de la comunidad. Así, en las zonas con mayor presión ambiental y una mayor presión de pastoreo, el efecto de las plantas ingenieras es mayor. Por otro lado, se pudo observar que la estabilidad de la diversidad en la escala de la comunidad parece ser la norma con efectos nulos de los factores de estrés en las propiedades de la comunidad. A nivel de microhábitat la importancia de la facilitación incrementa cuando los factores de estrés climático aumentan, y bajo las copas de Croton la diversidad y la cobertura es mayor que en el suelo desnudo, esta diferencia se incrementa con el estrés abiótico. Esta respuesta fue modulada por el pastoreo, en las zonas más altas con menor estrés climático, la facilitación se mantuvo debido a que la competencia se reduce por efecto del pastoreo, ya que las manchas se transforman refugios libres de herbivoría. Así, el estrés biótico por los consumidores altera significativamente la naturaleza y la fuerza de las interacciones entre especies en las comunidades, e incluso puede cambiar el signo de las interacciones entre especies. El banco de semillas muestra una importante interacción entre los factores de estrés, los efectos en el banco de semillas del suelo se explica mejor cuando los factores de estrés, tanto climáticos y el pastoreo son evaluados. En condiciones inalteradas la riqueza y abundancia del banco de semillas aumenta con la altitud y se reduce el estrés. Este patrón es modulado por el pastoreo, en el extremo inferior del gradiente altitudinal, el pastoreo produce un aumento en la riqueza y la densidad del banco de semillas y en el extremo superior del gradiente altitudinal el pastoreo reduce estos dos atributos.
Resumo:
Los procesos de partición espacial implican la división de un espacio geográfico en diferentes unidades o zonas según un conjunto específico de criterios. En ámbitos relacionados con las ciencias geoespaciales, la delimitación de estas zonas se realiza por agrupación de otras unidades básicas de área existentes en el espacio de trabajo. En este artículo se ofrece una revisión de los métodos de solución diseñados para este tipo de problemas, comenzando por una introducción a las técnicas heurísticas y modelos matemáticos más utilizados desde los años 60, para finalizar describiendo los recientes algoritmos aplicados a diagramas de Voronoi. También se revisan las aplicaciones en las que se han implementado algunos de estos modelos, quedando patente que son herramientas diseñadas para el tratamiento de problemas específicos, dada la dificultad de diseñar modelos genéricos y versátiles para este tipo de particiones espaciales o zonificaciones
Resumo:
La planificación pre-operatoria se ha convertido en una tarea esencial en cirugías y terapias de marcada complejidad, especialmente aquellas relacionadas con órgano blando. Un ejemplo donde la planificación preoperatoria tiene gran interés es la cirugía hepática. Dicha planificación comprende la detección e identificación precisa de las lesiones individuales y vasos así como la correcta segmentación y estimación volumétrica del hígado funcional. Este proceso es muy importante porque determina tanto si el paciente es un candidato adecuado para terapia quirúrgica como la definición del abordaje a seguir en el procedimiento. La radioterapia de órgano blando es un segundo ejemplo donde la planificación se requiere tanto para la radioterapia externa convencional como para la radioterapia intraoperatoria. La planificación comprende la segmentación de tumor y órganos vulnerables y la estimación de la dosimetría. La segmentación de hígado funcional y la estimación volumétrica para planificación de la cirugía se estiman habitualmente a partir de imágenes de tomografía computarizada (TC). De igual modo, en la planificación de radioterapia, los objetivos de la radiación se delinean normalmente sobre TC. Sin embargo, los avances en las tecnologías de imagen de resonancia magnética (RM) están ofreciendo progresivamente ventajas adicionales. Por ejemplo, se ha visto que el ratio de detección de metástasis hepáticas es significativamente superior en RM con contraste Gd–EOB–DTPA que en TC. Por tanto, recientes estudios han destacado la importancia de combinar la información de TC y RM para conseguir el mayor nivel posible de precisión en radioterapia y para facilitar una descripción precisa de las lesiones del hígado. Con el objetivo de mejorar la planificación preoperatoria en ambos escenarios se precisa claramente de un algoritmo de registro no rígido de imagen. Sin embargo, la gran mayoría de sistemas comerciales solo proporcionan métodos de registro rígido. Las medidas de intensidad de voxel han demostrado ser criterios de similitud de imágenes robustos, y, entre ellas, la Información Mutua (IM) es siempre la primera elegida en registros multimodales. Sin embargo, uno de los principales problemas de la IM es la ausencia de información espacial y la asunción de que las relaciones estadísticas entre las imágenes son homogéneas a lo largo de su domino completo. La hipótesis de esta tesis es que la incorporación de información espacial de órganos al proceso de registro puede mejorar la robustez y calidad del mismo, beneficiándose de la disponibilidad de las segmentaciones clínicas. En este trabajo, se propone y valida un esquema de registro multimodal no rígido 3D usando una nueva métrica llamada Información Mutua Centrada en el Órgano (Organ-Focused Mutual Information metric (OF-MI)) y se compara con la formulación clásica de la Información Mutua. Esto permite mejorar los resultados del registro en áreas problemáticas incorporando información regional al criterio de similitud, beneficiándose de la disponibilidad real de segmentaciones en protocolos estándares clínicos, y permitiendo que la dependencia estadística entre las dos modalidades de imagen difiera entre órganos o regiones. El método propuesto se ha aplicado al registro de TC y RM con contraste Gd–EOB–DTPA así como al registro de imágenes de TC y MR para planificación de radioterapia intraoperatoria rectal. Adicionalmente, se ha desarrollado un algoritmo de apoyo de segmentación 3D basado en Level-Sets para la incorporación de la información de órgano en el registro. El algoritmo de segmentación se ha diseñado específicamente para la estimación volumétrica de hígado sano funcional y ha demostrado un buen funcionamiento en un conjunto de imágenes de TC abdominales. Los resultados muestran una mejora estadísticamente significativa de OF-MI comparada con la Información Mutua clásica en las medidas de calidad de los registros; tanto con datos simulados (p<0.001) como con datos reales en registro hepático de TC y RM con contraste Gd– EOB–DTPA y en registro para planificación de radioterapia rectal usando OF-MI multi-órgano (p<0.05). Adicionalmente, OF-MI presenta resultados más estables con menor dispersión que la Información Mutua y un comportamiento más robusto con respecto a cambios en la relación señal-ruido y a la variación de parámetros. La métrica OF-MI propuesta en esta tesis presenta siempre igual o mayor precisión que la clásica Información Mutua y consecuentemente puede ser una muy buena alternativa en aplicaciones donde la robustez del método y la facilidad en la elección de parámetros sean particularmente importantes. Abstract Pre-operative planning has become an essential task in complex surgeries and therapies, especially for those affecting soft tissue. One example where soft tissue preoperative planning is of high interest is liver surgery. It involves the accurate detection and identification of individual liver lesions and vessels as well as the proper functional liver segmentation and volume estimation. This process is very important because it determines whether the patient is a suitable candidate for surgical therapy and the type of procedure. Soft tissue radiation therapy is a second example where planning is required for both conventional external and intraoperative radiotherapy. It involves the segmentation of the tumor target and vulnerable organs and the estimation of the planned dose. Functional liver segmentations and volume estimations for surgery planning are commonly estimated from computed tomography (CT) images. Similarly, in radiation therapy planning, targets to be irradiated and healthy and vulnerable tissues to be protected from irradiation are commonly delineated on CT scans. However, developments in magnetic resonance imaging (MRI) technology are progressively offering advantages. For instance, the hepatic metastasis detection rate has been found to be significantly higher in Gd–EOB–DTPAenhanced MRI than in CT. Therefore, recent studies highlight the importance of combining the information from CT and MRI to achieve the highest level of accuracy in radiotherapy and to facilitate accurate liver lesion description. In order to improve those two soft tissue pre operative planning scenarios, an accurate nonrigid image registration algorithm is clearly required. However, the vast majority of commercial systems only provide rigid registration. Voxel intensity measures have been shown to be robust measures of image similarity, and among them, Mutual Information (MI) is always the first candidate in multimodal registrations. However, one of the main drawbacks of Mutual Information is the absence of spatial information and the assumption that statistical relationships between images are the same over the whole domain of the image. The hypothesis of the present thesis is that incorporating spatial organ information into the registration process may improve the registration robustness and quality, taking advantage of the clinical segmentations availability. In this work, a multimodal nonrigid 3D registration framework using a new Organ- Focused Mutual Information metric (OF-MI) is proposed, validated and compared to the classical formulation of the Mutual Information (MI). It allows improving registration results in problematic areas by adding regional information into the similitude criterion taking advantage of actual segmentations availability in standard clinical protocols and allowing the statistical dependence between the two modalities differ among organs or regions. The proposed method is applied to CT and T1 weighted delayed Gd–EOB–DTPA-enhanced MRI registration as well as to register CT and MRI images in rectal intraoperative radiotherapy planning. Additionally, a 3D support segmentation algorithm based on Level-Sets has been developed for the incorporation of the organ information into the registration. The segmentation algorithm has been specifically designed for the healthy and functional liver volume estimation demonstrating good performance in a set of abdominal CT studies. Results show a statistical significant improvement of registration quality measures with OF-MI compared to MI with both simulated data (p<0.001) and real data in liver applications registering CT and Gd–EOB–DTPA-enhanced MRI and in registration for rectal radiotherapy planning using multi-organ OF-MI (p<0.05). Additionally, OF-MI presents more stable results with smaller dispersion than MI and a more robust behavior with respect to SNR changes and parameters variation. The proposed OF-MI always presents equal or better accuracy than the classical MI and consequently can be a very convenient alternative within applications where the robustness of the method and the facility to choose the parameters are particularly important.
Resumo:
Las técnicas de cirugía de mínima invasión (CMI) se están consolidando hoy en día como alternativa a la cirugía tradicional, debido a sus numerosos beneficios para los pacientes. Este cambio de paradigma implica que los cirujanos deben aprender una serie de habilidades distintas de aquellas requeridas en cirugía abierta. El entrenamiento y evaluación de estas habilidades se ha convertido en una de las mayores preocupaciones en los programas de formación de cirujanos, debido en gran parte a la presión de una sociedad que exige cirujanos bien preparados y una reducción en el número de errores médicos. Por tanto, se está prestando especial atención a la definición de nuevos programas que permitan el entrenamiento y la evaluación de las habilidades psicomotoras en entornos seguros antes de que los nuevos cirujanos puedan operar sobre pacientes reales. Para tal fin, hospitales y centros de formación están gradualmente incorporando instalaciones de entrenamiento donde los residentes puedan practicar y aprender sin riesgos. Es cada vez más común que estos laboratorios dispongan de simuladores virtuales o simuladores físicos capaces de registrar los movimientos del instrumental de cada residente. Estos simuladores ofrecen una gran variedad de tareas de entrenamiento y evaluación, así como la posibilidad de obtener información objetiva de los ejercicios. Los diferentes estudios de validación llevados a cabo dan muestra de su utilidad; pese a todo, los niveles de evidencia presentados son en muchas ocasiones insuficientes. Lo que es más importante, no existe un consenso claro a la hora de definir qué métricas son más útiles para caracterizar la pericia quirúrgica. El objetivo de esta tesis doctoral es diseñar y validar un marco de trabajo conceptual para la definición y validación de entornos para la evaluación de habilidades en CMI, en base a un modelo en tres fases: pedagógica (tareas y métricas a emplear), tecnológica (tecnologías de adquisición de métricas) y analítica (interpretación de la competencia en base a las métricas). Para tal fin, se describe la implementación práctica de un entorno basado en (1) un sistema de seguimiento de instrumental fundamentado en el análisis del vídeo laparoscópico; y (2) la determinación de la pericia en base a métricas de movimiento del instrumental. Para la fase pedagógica se diseñó e implementó un conjunto de tareas para la evaluación de habilidades psicomotoras básicas, así como una serie de métricas de movimiento. La validación de construcción llevada a cabo sobre ellas mostró buenos resultados para tiempo, camino recorrido, profundidad, velocidad media, aceleración media, economía de área y economía de volumen. Adicionalmente, los resultados obtenidos en la validación de apariencia fueron en general positivos en todos los grupos considerados (noveles, residentes, expertos). Para la fase tecnológica, se introdujo el EVA Tracking System, una solución para el seguimiento del instrumental quirúrgico basado en el análisis del vídeo endoscópico. La precisión del sistema se evaluó a 16,33ppRMS para el seguimiento 2D de la herramienta en la imagen; y a 13mmRMS para el seguimiento espacial de la misma. La validación de construcción con una de las tareas de evaluación mostró buenos resultados para tiempo, camino recorrido, profundidad, velocidad media, aceleración media, economía de área y economía de volumen. La validación concurrente con el TrEndo® Tracking System por su parte presentó valores altos de correlación para 8 de las 9 métricas analizadas. Finalmente, para la fase analítica se comparó el comportamiento de tres clasificadores supervisados a la hora de determinar automáticamente la pericia quirúrgica en base a la información de movimiento del instrumental, basados en aproximaciones lineales (análisis lineal discriminante, LDA), no lineales (máquinas de soporte vectorial, SVM) y difusas (sistemas adaptativos de inferencia neurodifusa, ANFIS). Los resultados muestran que en media SVM presenta un comportamiento ligeramente superior: 78,2% frente a los 71% y 71,7% obtenidos por ANFIS y LDA respectivamente. Sin embargo las diferencias estadísticas medidas entre los tres no fueron demostradas significativas. En general, esta tesis doctoral corrobora las hipótesis de investigación postuladas relativas a la definición de sistemas de evaluación de habilidades para cirugía de mínima invasión, a la utilidad del análisis de vídeo como fuente de información y a la importancia de la información de movimiento de instrumental a la hora de caracterizar la pericia quirúrgica. Basándose en estos cimientos, se han de abrir nuevos campos de investigación que contribuyan a la definición de programas de formación estructurados y objetivos, que puedan garantizar la acreditación de cirujanos sobradamente preparados y promocionen la seguridad del paciente en el quirófano. Abstract Minimally invasive surgery (MIS) techniques have become a standard in many surgical sub-specialties, due to their many benefits for patients. However, this shift in paradigm implies that surgeons must acquire a complete different set of skills than those normally attributed to open surgery. Training and assessment of these skills has become a major concern in surgical learning programmes, especially considering the social demand for better-prepared professionals and for the decrease of medical errors. Therefore, much effort is being put in the definition of structured MIS learning programmes, where practice with real patients in the operating room (OR) can be delayed until the resident can attest for a minimum level of psychomotor competence. To this end, skills’ laboratory settings are being introduced in hospitals and training centres where residents may practice and be assessed on their psychomotor skills. Technological advances in the field of tracking technologies and virtual reality (VR) have enabled the creation of new learning systems such as VR simulators or enhanced box trainers. These systems offer a wide range of tasks, as well as the capability of registering objective data on the trainees’ performance. Validation studies give proof of their usefulness; however, levels of evidence reported are in many cases low. More importantly, there is still no clear consensus on topics such as the optimal metrics that must be used to assess competence, the validity of VR simulation, the portability of tracking technologies into real surgeries (for advanced assessment) or the degree to which the skills measured and obtained in laboratory environments transfer to the OR. The purpose of this PhD is to design and validate a conceptual framework for the definition and validation of MIS assessment environments based on a three-pillared model defining three main stages: pedagogical (tasks and metrics to employ), technological (metric acquisition technologies) and analytical (interpretation of competence based on metrics). To this end, a practical implementation of the framework is presented, focused on (1) a video-based tracking system and (2) the determination of surgical competence based on the laparoscopic instruments’ motionrelated data. The pedagogical stage’s results led to the design and implementation of a set of basic tasks for MIS psychomotor skills’ assessment, as well as the definition of motion analysis parameters (MAPs) to measure performance on said tasks. Validation yielded good construct results for parameters such as time, path length, depth, average speed, average acceleration, economy of area and economy of volume. Additionally, face validation results showed positive acceptance on behalf of the experts, residents and novices. For the technological stage the EVA Tracking System is introduced. EVA provides a solution for tracking laparoscopic instruments from the analysis of the monoscopic video image. Accuracy tests for the system are presented, which yielded an average RMSE of 16.33pp for 2D tracking of the instrument on the image and of 13mm for 3D spatial tracking. A validation experiment was conducted using one of the tasks and the most relevant MAPs. Construct validation showed significant differences for time, path length, depth, average speed, average acceleration, economy of area and economy of volume; especially between novices and residents/experts. More importantly, concurrent validation with the TrEndo® Tracking System presented high correlation values (>0.7) for 8 of the 9 MAPs proposed. Finally, the analytical stage allowed comparing the performance of three different supervised classification strategies in the determination of surgical competence based on motion-related information. The three classifiers were based on linear (linear discriminant analysis, LDA), non-linear (support vector machines, SVM) and fuzzy (adaptive neuro fuzzy inference systems, ANFIS) approaches. Results for SVM show slightly better performance than the other two classifiers: on average, accuracy for LDA, SVM and ANFIS was of 71.7%, 78.2% and 71% respectively. However, when confronted, no statistical significance was found between any of the three. Overall, this PhD corroborates the investigated research hypotheses regarding the definition of MIS assessment systems, the use of endoscopic video analysis as the main source of information and the relevance of motion analysis in the determination of surgical competence. New research fields in the training and assessment of MIS surgeons can be proposed based on these foundations, in order to contribute to the definition of structured and objective learning programmes that guarantee the accreditation of well-prepared professionals and the promotion of patient safety in the OR.
Resumo:
Analysis of river flow using hydraulic modelling and its implications in derived environ-mental applications are inextricably connected with the way in which the river boundary shape is represented. This relationship is scale-dependent upon the modelling resolution which in turn determines the importance of a subscale performance of the model and the way subscale (surface and flow) processes are parameterised. Commonly, the subscale behaviour of the model relies upon a roughness parameterisation whose meaning depends on the dimensionality of the hydraulic model and the resolution of the topographic represen¬tation scale. This latter is, in turn, dependent on the resolution of the computational mesh as well as on the detail of measured topographic data. Flow results are affected by this interactions between scale and subscale parameterisation according to the dimensionality approach. The aim of this dissertation is the evaluation of these interactions upon hy¬draulic modelling results. Current high resolution topographic source availability induce this research which is tackled using a suitable roughness approach according to each di¬mensionality with the purpose of the interaction assessment. A 1D HEC-RAS model, a 2D raster-based diffusion-wave model with a scale-dependent distributed roughness parame-terisation and a 3D finite volume scheme with a porosity algorithm approach to incorporate complex topography have been used. Different topographic sources are assessed using a 1D scheme. LiDAR data are used to isolate the mesh resolution from the topographic content of the DEM effects upon 2D and 3D flow results. A distributed roughness parameterisation, using a roughness height approach dependent upon both mesh resolution and topographic content is developed and evaluated for the 2D scheme. Grain-size data and fractal methods are used for the reconstruction of topography with microscale information, required for some applications but not easily available. Sensitivity of hydraulic parameters to this topographic parameterisation is evaluated in a 3D scheme at different mesh resolu¬tions. Finally, the structural variability of simulated flow is analysed and related to scale interactions. Model simulations demonstrate (i) the importance of the topographic source in a 1D models; (ii) the mesh resolution approach is dominant in 2D and 3D simulations whereas in a 1D model the topographic source and even the roughness parameterisation impacts are more critical; (iii) the increment of the sensitivity to roughness parameterisa-tion in 1D and 2D schemes with detailed topographic sources and finer mesh resolutions; and (iv) the topographic content and microtopography impact throughout the vertical profile of computed 3D velocity in a depth-dependent way, whereas 2D results are not affected by topographic content variations. Finally, the spatial analysis shows that the mesh resolution controls high resolution model scale results, roughness parameterisation control 2D simulation results for a constant mesh resolution; and topographic content and micro-topography variations impacts upon the organisation of flow results depth-dependently in a 3D scheme. Resumen La topografía juega un papel fundamental en la distribución del agua y la energía en los paisajes naturales (Beven and Kirkby 1979; Wood et al. 1997). La simulación hidráulica combinada con métodos de medición del terreno por teledetección constituyen una poderosa herramienta de investigación en la comprensión del comportamiento de los flujos de agua debido a la variabilidad de la superficie sobre la que fluye. La representación e incorporación de la topografía en el esquema hidráulico tiene una importancia crucial en los resultados y determinan el desarrollo de sus aplicaciones al campo medioambiental. Cualquier simulación es una simplificación de un proceso del mundo real, y por tanto el grado de simplificación determinará el significado de los resultados simulados. Este razonamiento es particularmente difícil de trasladar a la simulación hidráulica donde aspectos de la escala tan diferentes como la escala de los procesos de flujo y de representación del contorno son considerados conjuntamente incluso en fases de parametrización (e.g. parametrización de la rugosidad). Por una parte, esto es debido a que las decisiones de escala vienen condicionadas entre ellas (e.g. la dimensionalidad del modelo condiciona la escala de representación del contorno) y por tanto interaccionan en sus resultados estrechamente. Y por otra parte, debido a los altos requerimientos numéricos y computacionales de una representación explícita de alta resolución de los procesos de flujo y discretización de la malla. Además, previo a la modelización hidráulica, la superficie del terreno sobre la que el agua fluye debe ser modelizada y por tanto presenta su propia escala de representación, que a su vez dependerá de la escala de los datos topográficos medidos con que se elabora el modelo. En última instancia, esta topografía es la que determina el comportamiento espacial del flujo. Por tanto, la escala de la topografía en sus fases de medición y modelización (resolución de los datos y representación topográfica) previas a su incorporación en el modelo hidráulico producirá a su vez un impacto que se acumulará al impacto global resultante debido a la escala computacional del modelo hidráulico y su dimensión. La comprensión de las interacciones entre las complejas geometrías del contorno y la estructura del flujo utilizando la modelización hidráulica depende de las escalas consideradas en la simplificación de los procesos hidráulicos y del terreno (dimensión del modelo, tamaño de escala computacional y escala de los datos topográficos). La naturaleza de la aplicación del modelo hidráulico (e.g. habitat físico, análisis de riesgo de inundaciones, transporte de sedimentos) determina en primer lugar la escala del estudio y por tanto el detalle de los procesos a simular en el modelo (i.e. la dimensionalidad) y, en consecuencia, la escala computacional a la que se realizarán los cálculos (i.e. resolución computacional). Esta última a su vez determina, el detalle geográfico con que deberá representarse el contorno acorde con la resolución de la malla computacional. La parametrización persigue incorporar en el modelo hidráulico la cuantificación de los procesos y condiciones físicas del sistema natural y por tanto debe incluir no solo aquellos procesos que tienen lugar a la escala de modelización, sino también aquellos que tienen lugar a un nivel subescalar y que deben ser definidos mediante relaciones de escalado con las variables modeladas explícitamente. Dicha parametrización se implementa en la práctica mediante la provisión de datos al modelo, por tanto la escala de los datos geográficos utilizados para parametrizar el modelo no sólo influirá en los resultados, sino también determinará la importancia del comportamiento subescalar del modelo y el modo en que estos procesos deban ser parametrizados (e.g. la variabilidad natural del terreno dentro de la celda de discretización o el flujo en las direcciones laterales y verticales en un modelo unidimensional). En esta tesis, se han utilizado el modelo unidimensional HEC-RAS, (HEC 1998b), un modelo ráster bidimensional de propagación de onda, (Yu 2005) y un esquema tridimensional de volúmenes finitos con un algoritmo de porosidad para incorporar la topografía, (Lane et al. 2004; Hardy et al. 2005). La geometría del contorno viene definida por la escala de representación topográfica (resolución de malla y contenido topográfico), la cual a su vez depende de la escala de la fuente cartográfica. Todos estos factores de escala interaccionan en la respuesta del modelo hidráulico a la topografía. En los últimos años, métodos como el análisis fractal y las técnicas geoestadísticas utilizadas para representar y analizar elementos geográficos (e.g. en la caracterización de superficies (Herzfeld and Overbeck 1999; Butler et al. 2001)), están promoviendo nuevos enfoques en la cuantificación de los efectos de escala (Lam et al. 2004; Atkinson and Tate 2000; Lam et al. 2006) por medio del análisis de la estructura espacial de la variable (e.g. Bishop et al. 2006; Ju et al. 2005; Myint et al. 2004; Weng 2002; Bian and Xie 2004; Southworth et al. 2006; Pozd-nyakova et al. 2005; Kyriakidis and Goodchild 2006). Estos métodos cuantifican tanto el rango de valores de la variable presentes a diferentes escalas como la homogeneidad o heterogeneidad de la variable espacialmente distribuida (Lam et al. 2004). En esta tesis, estas técnicas se han utilizado para analizar el impacto de la topografía sobre la estructura de los resultados hidráulicos simulados. Los datos de teledetección de alta resolución y técnicas GIS también están siendo utilizados para la mejor compresión de los efectos de escala en modelos medioambientales (Marceau 1999; Skidmore 2002; Goodchild 2003) y se utilizan en esta tesis. Esta tesis como corpus de investigación aborda las interacciones de esas escalas en la modelización hidráulica desde un punto de vista global e interrelacionado. Sin embargo, la estructura y el foco principal de los experimentos están relacionados con las nociones espaciales de la escala de representación en relación con una visión global de las interacciones entre escalas. En teoría, la representación topográfica debe caracterizar la superficie sobre la que corre el agua a una adecuada (conforme a la finalidad y dimensión del modelo) escala de discretización, de modo que refleje los procesos de interés. La parametrización de la rugosidad debe de reflejar los efectos de la variabilidad de la superficie a escalas de más detalle que aquellas representadas explícitamente en la malla topográfica (i.e. escala de discretización). Claramente, ambos conceptos están físicamente relacionados por un
Resumo:
El impacto negativo que tienen los virus en las plantas hace que estos puedan ejercer un papel ecológico como moduladores de la dinámica espacio-temporal de las poblaciones de sus huéspedes. Entender cuáles son los mecanismos genéticos y los factores ambientales que determinan tanto la epidemiología como la estructura genética de las poblaciones de virus puede resultar de gran ayuda para la comprensión del papel ecológico de las infecciones virales. Sin embargo, existen pocos trabajos experimentales que hayan abordado esta cuestión. En esta tesis, se analiza el efecto de la heterogeneidad del paisaje sobre la incidencia de los virus y la estructura genética de sus poblaciones. Asimismo, se explora como dichos factores ambientales influyen en la importancia relativa que los principales mecanismos de generación de variabilidad genética (mutación, recombinación y migración) tienen en la evolución de los virus. Para ello se ha usado como sistema los begomovirus que infectan poblaciones de chiltepín (Capsicum annuum var. aviculare (Dierbach) D´Arcy & Eshbaugh) en México. Se analizó la incidencia de diferentes virus en poblaciones de chiltepín distribuidas a lo largo de seis provincias biogeográficas, representando el área de distribución de la especie en México, y localizadas en hábitats con diferente grado de intervención humana: poblaciones sin intervención humana (silvestres); poblaciones toleradas (lindes y pastizales), y poblaciones manejadas por el hombre (monocultivos y huertos familiares). Entre los virus analizados, los begomovirus mostraron la mayor incidencia, detectándose en todas las poblaciones y años de muestreo. Las únicas dos especies de begomovirus que se encontraron infectando al chiltepín fueron: el virus del mosaico dorado del chile (Pepper golden mosaic virus, PepGMV) y el virus huasteco del amarilleo de venas del chile (Pepper huasteco yellow vein virus, PHYVV). Por ello, todos los análisis realizados en esta tesis se centran en estas dos especies de virus. La incidencia de PepGMV y PHYVV, tanto en infecciones simples como mixtas, aumento cuanto mayor fue el nivel de intervención humana en las poblaciones de chiltepín, lo que a su vez se asoció con una menor biodiversidad y una mayor densidad de plantas. Además, la incidencia de infecciones mixtas, altamente relacionada con la presencia de síntomas, fue también mayor en las poblaciones cultivadas. La incidencia de estos dos virus también varió en función de la población de chiltepín y de la provincia biogeográfica. Por tanto, estos resultados apoyan una de las hipótesis XVI clásicas de la Patología Vegetal según la cual la simplificación de los ecosistemas naturales debida a la intervención humana conduce a un mayor riesgo de enfermedad de las plantas, e ilustran sobre la importancia de la heterogeneidad del paisaje a diferentes escalas en la determinación de patrones epidemiológicos. La heterogeneidad del paisaje no solo afectó a la epidemiología de PepGMV y PHYVV, sino también a la estructura genética de sus poblaciones. En ambos virus, el nivel de diferenciación genética mayor fue la población, probablemente asociado a la capacidad de migración de su vector Bemisia tabaci; y en segundo lugar la provincia biogeográfica, lo que podría estar relacionado con el papel del ser humano como agente dispersor de PepGMV y PHYVV. La estima de las tasas de sustitución nucleotídica de las poblaciones de PepGMV y PHYVV mostró una rápida dinámica evolutiva. Los árboles filogenéticos de ambos virus presentaron una topología en estrella, lo que sugiere una expansión reciente en las poblaciones de chiltepín. La reconstrucción de los patrones de migración de ambos virus indicó que ésta expansión parece haberse producido desde la zona central de México siguiendo un patrón radial, y en los últimos 30 años. Es importante tener en cuenta que el patrón espacial de la diversidad genética de las poblaciones de PepGMV y PHYVV es similar al descrito previamente para el chiltepín lo que podría dar lugar a la congruencia de las genealogías del huésped y la de los virus. Dicha congruencia se encontró cuando se tuvieron en cuenta únicamente las poblaciones de hábitats silvestres y tolerados, lo que probablemente se debe a una codivergencia en el espacio pero no en el tiempo, dado que la evolución de virus y huésped han ocurrido a escalas temporales muy diferentes. Finalmente, el análisis de la frecuencia de recombinación en PepGMV y PHYVV indicó que esta juega un papel importante en la evolución de ambos virus, dependiendo su importancia del nivel de intervención humana de la población de chiltepín. Este factor afectó también a la intensidad de la selección a la que se ven sometidos los genomas de PepGMV y PHYVV. Los resultados de esta tesis ponen de manifiesto la importancia que la reducción de la biodiversidad asociada al nivel de intervención humana de las poblaciones de plantas y la heterogeneidad del paisaje tiene en la emergencia de nuevas enfermedades virales. Por tanto, es necesario considerar estos factores ambientales a la hora de comprender la epidemiologia y la evolución de los virus de plantas.XVII SUMMARY Plant viruses play a key role as modulators of the spatio-temporal dynamics of their host populations, due to their negative impact in plant fitness. Knowledge on the genetic and environmental factors that determine the epidemiology and the genetic structure of virus populations may help to understand the ecological role of viral infections. However, few experimental works have addressed this issue. This thesis analyses the effect of landscape heterogeneity in the prevalence of viruses and the genetic structure of their populations. Also, how these environmental factors influence the relative importance of the main mechanisms for generating genetic variability (mutation, recombination and migration) during virus evolution is explored. To do so, the begomoviruses infecting chiltepin (Capsicum annuum var. aviculare (Dierbach) D'Arcy & Eshbaugh) populations in Mexico were used. Incidence of different viruses in chiltepin populations of six biogeographical provinces representing the species distribution in Mexico was determined. Populations belonged to different habitats according to the level of human management: populations with no human intervention (Wild); populations naturally dispersed and tolerated in managed habitats (let-standing), and human managed populations (cultivated). Among the analyzed viruses, the begomoviruses showed the highest prevalence, being detected in all populations and sampling years. Only two begomovirus species infected chiltepin: Pepper golden mosaic virus, PepGMV and Pepper huasteco yellow vein virus, PHYVV. Therefore, all the analyses presented in this thesis are focused in these two viruses. The prevalence of PepGMV and PHYVV, in single and mixed infections, increased with higher levels of human management of the host population, which was associated with decreased biodiversity and increased plant density. Furthermore, cultivated populations showed higher prevalence of mixed infections and symptomatic plants. The prevalence of the two viruses also varied depending on the chiltepin population and on the biogeographical province. Therefore, these results support a classical hypothesis of Plant Pathology stating that simplification of natural ecosystems due to human management leads to an increased disease risk, and illustrate on the importance of landscape heterogeneity in determining epidemiological patterns. Landscape heterogeneity not only affected the epidemiology of PepGMV and PHYVV, but also the genetic structure of their populations. Both viruses had the highest level of genetic differentiation at the population scale, probably associated with the XVIII migration patterns of its vector Bemisia tabaci, and a second level at the biogeographical province scale, which could be related to the role of humans as dispersal agents of PepGMV and PHYVV. The estimates of nucleotide substitution rates of the virus populations indicated rapid evolutionary dynamics. Accordingly, phylogenetic trees of both viruses showed a star topology, suggesting a recent diversification in the chiltepin populations. Reconstruction of PepGMV and PHYVV migration patterns indicated that they expanded from central Mexico following a radial pattern during the last 30 years. Importantly, the spatial genetic structures of the virus populations were similar to that described previously for the chiltepin, which may result in the congruence of the host and virus genealogies. Such congruence was found only in wild and let-standing populations. This is probably due to a co-divergence in space but not in time, given the different evolutionary time scales of the host and virus populations. Finally, the frequency of recombination detected in the PepGMV and PHYVV populations indicated that this mechanism plays an important role in the evolution of both viruses at the intra-specific scale. The level of human management had a minor effect on the frequency of recombination, but influenced the strength of negative selective pressures in the viral genomes. The results of this thesis highlight the importance of decreased biodiversity in plant populations associated with the level of human management and of landscape heterogeneity on the emergence of new viral diseases. Therefore it is necessary to consider these environmental factors in order to fully understand the epidemiology and evolution of plant viruses.
Resumo:
En port. grab. xil. de sol con lema: "Sicuti tenebrae eius ita & lumen eius. Psal. 138"
Resumo:
Este trabajo pretende investigar como se comporta un modelo de crecimiento del empleo en un territorio geográficamente cerrado considerando tanto su vertiente espacial, y el efecto de rebosamiento espacial de la variable endógena de empleo, como su vertiente temporal considerando el comportamiento de las variables empleo y recursos en diferentes ejercicios económicos sucesivos. Esto último permite incorporar el efecto de relación temporal entre las variables permitiendo derivar otros indicadores temporales que según el modelo faciliten una explicación del comportamiento del empleo en el tiempo. Para evaluar el modelo se ha tomado como piloto una subcomarca de acentuado carácter rural de Palencia, y se ha utilizado la modelación SUR Espacial.
Resumo:
La amplitud con la que se define legalmente el Patrimonio Histórico Español según la Ley 16/1985 de 25 de junio es uno de los factores claves en la identificación y caracterización del mismo: “... inmuebles y objetos muebles de interés artístico, históricos, paleontológicos, arqueológicos, etnográficos, científico o técnico. Asimismo el patrimonio documental o bibliográfico, los yacimientos o zonas arqueológicas así como sitios naturales, jardines y parques que tengan valor artístico, histórico y antropológico”. Los recursos patrimoniales están catalogados y descritos mediante un conjunto de metadatos, que permiten su búsqueda en la red, así como la consulta de las propiedades básicas de los mismos. INSPIRE plantea la directiva donde quedan enmarcados los recursos digitales georreferenciados. En este sentido el patrimonio es un recurso con componente espacial y la propia directiva lo considera dentro de los datos de referencia (Sistemas de coordenadas de referencia, Sistema de cuadrículas geográficas, Nombres geográficos, Unidades administrativas, Direcciones, Parcelas catastrales, Redes de transporte, Hidrografía, Lugares protegidos) como se puede ver en el anexo I. Según INSPIRE: “Lugares protegidos: zonas designadas o gestionadas dentro de un marco legislativo internacional, comunitario o propio de los estados miembros, para la consecución de unos objetivos de conservación específicos”.
Resumo:
La optimización de parámetros tales como el consumo de potencia, la cantidad de recursos lógicos empleados o la ocupación de memoria ha sido siempre una de las preocupaciones principales a la hora de diseñar sistemas embebidos. Esto es debido a que se trata de sistemas dotados de una cantidad de recursos limitados, y que han sido tradicionalmente empleados para un propósito específico, que permanece invariable a lo largo de toda la vida útil del sistema. Sin embargo, el uso de sistemas embebidos se ha extendido a áreas de aplicación fuera de su ámbito tradicional, caracterizadas por una mayor demanda computacional. Así, por ejemplo, algunos de estos sistemas deben llevar a cabo un intenso procesado de señales multimedia o la transmisión de datos mediante sistemas de comunicaciones de alta capacidad. Por otra parte, las condiciones de operación del sistema pueden variar en tiempo real. Esto sucede, por ejemplo, si su funcionamiento depende de datos medidos por el propio sistema o recibidos a través de la red, de las demandas del usuario en cada momento, o de condiciones internas del propio dispositivo, tales como la duración de la batería. Como consecuencia de la existencia de requisitos de operación dinámicos es necesario ir hacia una gestión dinámica de los recursos del sistema. Si bien el software es inherentemente flexible, no ofrece una potencia computacional tan alta como el hardware. Por lo tanto, el hardware reconfigurable aparece como una solución adecuada para tratar con mayor flexibilidad los requisitos variables dinámicamente en sistemas con alta demanda computacional. La flexibilidad y adaptabilidad del hardware requieren de dispositivos reconfigurables que permitan la modificación de su funcionalidad bajo demanda. En esta tesis se han seleccionado las FPGAs (Field Programmable Gate Arrays) como los dispositivos más apropiados, hoy en día, para implementar sistemas basados en hardware reconfigurable De entre todas las posibilidades existentes para explotar la capacidad de reconfiguración de las FPGAs comerciales, se ha seleccionado la reconfiguración dinámica y parcial. Esta técnica consiste en substituir una parte de la lógica del dispositivo, mientras el resto continúa en funcionamiento. La capacidad de reconfiguración dinámica y parcial de las FPGAs es empleada en esta tesis para tratar con los requisitos de flexibilidad y de capacidad computacional que demandan los dispositivos embebidos. La propuesta principal de esta tesis doctoral es el uso de arquitecturas de procesamiento escalables espacialmente, que son capaces de adaptar su funcionalidad y rendimiento en tiempo real, estableciendo un compromiso entre dichos parámetros y la cantidad de lógica que ocupan en el dispositivo. A esto nos referimos con arquitecturas con huellas escalables. En particular, se propone el uso de arquitecturas altamente paralelas, modulares, regulares y con una alta localidad en sus comunicaciones, para este propósito. El tamaño de dichas arquitecturas puede ser modificado mediante la adición o eliminación de algunos de los módulos que las componen, tanto en una dimensión como en dos. Esta estrategia permite implementar soluciones escalables, sin tener que contar con una versión de las mismas para cada uno de los tamaños posibles de la arquitectura. De esta manera se reduce significativamente el tiempo necesario para modificar su tamaño, así como la cantidad de memoria necesaria para almacenar todos los archivos de configuración. En lugar de proponer arquitecturas para aplicaciones específicas, se ha optado por patrones de procesamiento genéricos, que pueden ser ajustados para solucionar distintos problemas en el estado del arte. A este respecto, se proponen patrones basados en esquemas sistólicos, así como de tipo wavefront. Con el objeto de poder ofrecer una solución integral, se han tratado otros aspectos relacionados con el diseño y el funcionamiento de las arquitecturas, tales como el control del proceso de reconfiguración de la FPGA, la integración de las arquitecturas en el resto del sistema, así como las técnicas necesarias para su implementación. Por lo que respecta a la implementación, se han tratado distintos aspectos de bajo nivel dependientes del dispositivo. Algunas de las propuestas realizadas a este respecto en la presente tesis doctoral son un router que es capaz de garantizar el correcto rutado de los módulos reconfigurables dentro del área destinada para ellos, así como una estrategia para la comunicación entre módulos que no introduce ningún retardo ni necesita emplear recursos configurables del dispositivo. El flujo de diseño propuesto se ha automatizado mediante una herramienta denominada DREAMS. La herramienta se encarga de la modificación de las netlists correspondientes a cada uno de los módulos reconfigurables del sistema, y que han sido generadas previamente mediante herramientas comerciales. Por lo tanto, el flujo propuesto se entiende como una etapa de post-procesamiento, que adapta esas netlists a los requisitos de la reconfiguración dinámica y parcial. Dicha modificación la lleva a cabo la herramienta de una forma completamente automática, por lo que la productividad del proceso de diseño aumenta de forma evidente. Para facilitar dicho proceso, se ha dotado a la herramienta de una interfaz gráfica. El flujo de diseño propuesto, y la herramienta que lo soporta, tienen características específicas para abordar el diseño de las arquitecturas dinámicamente escalables propuestas en esta tesis. Entre ellas está el soporte para el realojamiento de módulos reconfigurables en posiciones del dispositivo distintas a donde el módulo es originalmente implementado, así como la generación de estructuras de comunicación compatibles con la simetría de la arquitectura. El router has sido empleado también en esta tesis para obtener un rutado simétrico entre nets equivalentes. Dicha posibilidad ha sido explotada para aumentar la protección de circuitos con altos requisitos de seguridad, frente a ataques de canal lateral, mediante la implantación de lógica complementaria con rutado idéntico. Para controlar el proceso de reconfiguración de la FPGA, se propone en esta tesis un motor de reconfiguración especialmente adaptado a los requisitos de las arquitecturas dinámicamente escalables. Además de controlar el puerto de reconfiguración, el motor de reconfiguración ha sido dotado de la capacidad de realojar módulos reconfigurables en posiciones arbitrarias del dispositivo, en tiempo real. De esta forma, basta con generar un único bitstream por cada módulo reconfigurable del sistema, independientemente de la posición donde va a ser finalmente reconfigurado. La estrategia seguida para implementar el proceso de realojamiento de módulos es diferente de las propuestas existentes en el estado del arte, pues consiste en la composición de los archivos de configuración en tiempo real. De esta forma se consigue aumentar la velocidad del proceso, mientras que se reduce la longitud de los archivos de configuración parciales a almacenar en el sistema. El motor de reconfiguración soporta módulos reconfigurables con una altura menor que la altura de una región de reloj del dispositivo. Internamente, el motor se encarga de la combinación de los frames que describen el nuevo módulo, con la configuración existente en el dispositivo previamente. El escalado de las arquitecturas de procesamiento propuestas en esta tesis también se puede beneficiar de este mecanismo. Se ha incorporado también un acceso directo a una memoria externa donde se pueden almacenar bitstreams parciales. Para acelerar el proceso de reconfiguración se ha hecho funcionar el ICAP por encima de la máxima frecuencia de reloj aconsejada por el fabricante. Así, en el caso de Virtex-5, aunque la máxima frecuencia del reloj deberían ser 100 MHz, se ha conseguido hacer funcionar el puerto de reconfiguración a frecuencias de operación de hasta 250 MHz, incluyendo el proceso de realojamiento en tiempo real. Se ha previsto la posibilidad de portar el motor de reconfiguración a futuras familias de FPGAs. Por otro lado, el motor de reconfiguración se puede emplear para inyectar fallos en el propio dispositivo hardware, y así ser capaces de evaluar la tolerancia ante los mismos que ofrecen las arquitecturas reconfigurables. Los fallos son emulados mediante la generación de archivos de configuración a los que intencionadamente se les ha introducido un error, de forma que se modifica su funcionalidad. Con el objetivo de comprobar la validez y los beneficios de las arquitecturas propuestas en esta tesis, se han seguido dos líneas principales de aplicación. En primer lugar, se propone su uso como parte de una plataforma adaptativa basada en hardware evolutivo, con capacidad de escalabilidad, adaptabilidad y recuperación ante fallos. En segundo lugar, se ha desarrollado un deblocking filter escalable, adaptado a la codificación de vídeo escalable, como ejemplo de aplicación de las arquitecturas de tipo wavefront propuestas. El hardware evolutivo consiste en el uso de algoritmos evolutivos para diseñar hardware de forma autónoma, explotando la flexibilidad que ofrecen los dispositivos reconfigurables. En este caso, los elementos de procesamiento que componen la arquitectura son seleccionados de una biblioteca de elementos presintetizados, de acuerdo con las decisiones tomadas por el algoritmo evolutivo, en lugar de definir la configuración de las mismas en tiempo de diseño. De esta manera, la configuración del core puede cambiar cuando lo hacen las condiciones del entorno, en tiempo real, por lo que se consigue un control autónomo del proceso de reconfiguración dinámico. Así, el sistema es capaz de optimizar, de forma autónoma, su propia configuración. El hardware evolutivo tiene una capacidad inherente de auto-reparación. Se ha probado que las arquitecturas evolutivas propuestas en esta tesis son tolerantes ante fallos, tanto transitorios, como permanentes y acumulativos. La plataforma evolutiva se ha empleado para implementar filtros de eliminación de ruido. La escalabilidad también ha sido aprovechada en esta aplicación. Las arquitecturas evolutivas escalables permiten la adaptación autónoma de los cores de procesamiento ante fluctuaciones en la cantidad de recursos disponibles en el sistema. Por lo tanto, constituyen un ejemplo de escalabilidad dinámica para conseguir un determinado nivel de calidad, que puede variar en tiempo real. Se han propuesto dos variantes de sistemas escalables evolutivos. El primero consiste en un único core de procesamiento evolutivo, mientras que el segundo está formado por un número variable de arrays de procesamiento. La codificación de vídeo escalable, a diferencia de los codecs no escalables, permite la decodificación de secuencias de vídeo con diferentes niveles de calidad, de resolución temporal o de resolución espacial, descartando la información no deseada. Existen distintos algoritmos que soportan esta característica. En particular, se va a emplear el estándar Scalable Video Coding (SVC), que ha sido propuesto como una extensión de H.264/AVC, ya que este último es ampliamente utilizado tanto en la industria, como a nivel de investigación. Para poder explotar toda la flexibilidad que ofrece el estándar, hay que permitir la adaptación de las características del decodificador en tiempo real. El uso de las arquitecturas dinámicamente escalables es propuesto en esta tesis con este objetivo. El deblocking filter es un algoritmo que tiene como objetivo la mejora de la percepción visual de la imagen reconstruida, mediante el suavizado de los "artefactos" de bloque generados en el lazo del codificador. Se trata de una de las tareas más intensivas en procesamiento de datos de H.264/AVC y de SVC, y además, su carga computacional es altamente dependiente del nivel de escalabilidad seleccionado en el decodificador. Por lo tanto, el deblocking filter ha sido seleccionado como prueba de concepto de la aplicación de las arquitecturas dinámicamente escalables para la compresión de video. La arquitectura propuesta permite añadir o eliminar unidades de computación, siguiendo un esquema de tipo wavefront. La arquitectura ha sido propuesta conjuntamente con un esquema de procesamiento en paralelo del deblocking filter a nivel de macrobloque, de tal forma que cuando se varía del tamaño de la arquitectura, el orden de filtrado de los macrobloques varia de la misma manera. El patrón propuesto se basa en la división del procesamiento de cada macrobloque en dos etapas independientes, que se corresponden con el filtrado horizontal y vertical de los bloques dentro del macrobloque. Las principales contribuciones originales de esta tesis son las siguientes: - El uso de arquitecturas altamente regulares, modulares, paralelas y con una intensa localidad en sus comunicaciones, para implementar cores de procesamiento dinámicamente reconfigurables. - El uso de arquitecturas bidimensionales, en forma de malla, para construir arquitecturas dinámicamente escalables, con una huella escalable. De esta forma, las arquitecturas permiten establecer un compromiso entre el área que ocupan en el dispositivo, y las prestaciones que ofrecen en cada momento. Se proponen plantillas de procesamiento genéricas, de tipo sistólico o wavefront, que pueden ser adaptadas a distintos problemas de procesamiento. - Un flujo de diseño y una herramienta que lo soporta, para el diseño de sistemas reconfigurables dinámicamente, centradas en el diseño de las arquitecturas altamente paralelas, modulares y regulares propuestas en esta tesis. - Un esquema de comunicaciones entre módulos reconfigurables que no introduce ningún retardo ni requiere el uso de recursos lógicos propios. - Un router flexible, capaz de resolver los conflictos de rutado asociados con el diseño de sistemas reconfigurables dinámicamente. - Un algoritmo de optimización para sistemas formados por múltiples cores escalables que optimice, mediante un algoritmo genético, los parámetros de dicho sistema. Se basa en un modelo conocido como el problema de la mochila. - Un motor de reconfiguración adaptado a los requisitos de las arquitecturas altamente regulares y modulares. Combina una alta velocidad de reconfiguración, con la capacidad de realojar módulos en tiempo real, incluyendo el soporte para la reconfiguración de regiones que ocupan menos que una región de reloj, así como la réplica de un módulo reconfigurable en múltiples posiciones del dispositivo. - Un mecanismo de inyección de fallos que, empleando el motor de reconfiguración del sistema, permite evaluar los efectos de fallos permanentes y transitorios en arquitecturas reconfigurables. - La demostración de las posibilidades de las arquitecturas propuestas en esta tesis para la implementación de sistemas de hardware evolutivos, con una alta capacidad de procesamiento de datos. - La implementación de sistemas de hardware evolutivo escalables, que son capaces de tratar con la fluctuación de la cantidad de recursos disponibles en el sistema, de una forma autónoma. - Una estrategia de procesamiento en paralelo para el deblocking filter compatible con los estándares H.264/AVC y SVC que reduce el número de ciclos de macrobloque necesarios para procesar un frame de video. - Una arquitectura dinámicamente escalable que permite la implementación de un nuevo deblocking filter, totalmente compatible con los estándares H.264/AVC y SVC, que explota el paralelismo a nivel de macrobloque. El presente documento se organiza en siete capítulos. En el primero se ofrece una introducción al marco tecnológico de esta tesis, especialmente centrado en la reconfiguración dinámica y parcial de FPGAs. También se motiva la necesidad de las arquitecturas dinámicamente escalables propuestas en esta tesis. En el capítulo 2 se describen las arquitecturas dinámicamente escalables. Dicha descripción incluye la mayor parte de las aportaciones a nivel arquitectural realizadas en esta tesis. Por su parte, el flujo de diseño adaptado a dichas arquitecturas se propone en el capítulo 3. El motor de reconfiguración se propone en el 4, mientras que el uso de dichas arquitecturas para implementar sistemas de hardware evolutivo se aborda en el 5. El deblocking filter escalable se describe en el 6, mientras que las conclusiones finales de esta tesis, así como la descripción del trabajo futuro, son abordadas en el capítulo 7. ABSTRACT The optimization of system parameters, such as power dissipation, the amount of hardware resources and the memory footprint, has been always a main concern when dealing with the design of resource-constrained embedded systems. This situation is even more demanding nowadays. Embedded systems cannot anymore be considered only as specific-purpose computers, designed for a particular functionality that remains unchanged during their lifetime. Differently, embedded systems are now required to deal with more demanding and complex functions, such as multimedia data processing and high-throughput connectivity. In addition, system operation may depend on external data, the user requirements or internal variables of the system, such as the battery life-time. All these conditions may vary at run-time, leading to adaptive scenarios. As a consequence of both the growing computational complexity and the existence of dynamic requirements, dynamic resource management techniques for embedded systems are needed. Software is inherently flexible, but it cannot meet the computing power offered by hardware solutions. Therefore, reconfigurable hardware emerges as a suitable technology to deal with the run-time variable requirements of complex embedded systems. Adaptive hardware requires the use of reconfigurable devices, where its functionality can be modified on demand. In this thesis, Field Programmable Gate Arrays (FPGAs) have been selected as the most appropriate commercial technology existing nowadays to implement adaptive hardware systems. There are different ways of exploiting reconfigurability in reconfigurable devices. Among them is dynamic and partial reconfiguration. This is a technique which consists in substituting part of the FPGA logic on demand, while the rest of the device continues working. The strategy followed in this thesis is to exploit the dynamic and partial reconfiguration of commercial FPGAs to deal with the flexibility and complexity demands of state-of-the-art embedded systems. The proposal of this thesis to deal with run-time variable system conditions is the use of spatially scalable processing hardware IP cores, which are able to adapt their functionality or performance at run-time, trading them off with the amount of logic resources they occupy in the device. This is referred to as a scalable footprint in the context of this thesis. The distinguishing characteristic of the proposed cores is that they rely on highly parallel, modular and regular architectures, arranged in one or two dimensions. These architectures can be scaled by means of the addition or removal of the composing blocks. This strategy avoids implementing a full version of the core for each possible size, with the corresponding benefits in terms of scaling and adaptation time, as well as bitstream storage memory requirements. Instead of providing specific-purpose architectures, generic architectural templates, which can be tuned to solve different problems, are proposed in this thesis. Architectures following both systolic and wavefront templates have been selected. Together with the proposed scalable architectural templates, other issues needed to ensure the proper design and operation of the scalable cores, such as the device reconfiguration control, the run-time management of the architecture and the implementation techniques have been also addressed in this thesis. With regard to the implementation of dynamically reconfigurable architectures, device dependent low-level details are addressed. Some of the aspects covered in this thesis are the area constrained routing for reconfigurable modules, or an inter-module communication strategy which does not introduce either extra delay or logic overhead. The system implementation, from the hardware description to the device configuration bitstream, has been fully automated by modifying the netlists corresponding to each of the system modules, which are previously generated using the vendor tools. This modification is therefore envisaged as a post-processing step. Based on these implementation proposals, a design tool called DREAMS (Dynamically Reconfigurable Embedded and Modular Systems) has been created, including a graphic user interface. The tool has specific features to cope with modular and regular architectures, including the support for module relocation and the inter-module communications scheme based on the symmetry of the architecture. The core of the tool is a custom router, which has been also exploited in this thesis to obtain symmetric routed nets, with the aim of enhancing the protection of critical reconfigurable circuits against side channel attacks. This is achieved by duplicating the logic with an exactly equal routing. In order to control the reconfiguration process of the FPGA, a Reconfiguration Engine suited to the specific requirements set by the proposed architectures was also proposed. Therefore, in addition to controlling the reconfiguration port, the Reconfiguration Engine has been enhanced with the online relocation ability, which allows employing a unique configuration bitstream for all the positions where the module may be placed in the device. Differently to the existing relocating solutions, which are based on bitstream parsers, the proposed approach is based on the online composition of bitstreams. This strategy allows increasing the speed of the process, while the length of partial bitstreams is also reduced. The height of the reconfigurable modules can be lower than the height of a clock region. The Reconfiguration Engine manages the merging process of the new and the existing configuration frames within each clock region. The process of scaling up and down the hardware cores also benefits from this technique. A direct link to an external memory where partial bitstreams can be stored has been also implemented. In order to accelerate the reconfiguration process, the ICAP has been overclocked over the speed reported by the manufacturer. In the case of Virtex-5, even though the maximum frequency of the ICAP is reported to be 100 MHz, valid operations at 250 MHz have been achieved, including the online relocation process. Portability of the reconfiguration solution to today's and probably, future FPGAs, has been also considered. The reconfiguration engine can be also used to inject faults in real hardware devices, and this way being able to evaluate the fault tolerance offered by the reconfigurable architectures. Faults are emulated by introducing partial bitstreams intentionally modified to provide erroneous functionality. To prove the validity and the benefits offered by the proposed architectures, two demonstration application lines have been envisaged. First, scalable architectures have been employed to develop an evolvable hardware platform with adaptability, fault tolerance and scalability properties. Second, they have been used to implement a scalable deblocking filter suited to scalable video coding. Evolvable Hardware is the use of evolutionary algorithms to design hardware in an autonomous way, exploiting the flexibility offered by reconfigurable devices. In this case, processing elements composing the architecture are selected from a presynthesized library of processing elements, according to the decisions taken by the algorithm, instead of being decided at design time. This way, the configuration of the array may change as run-time environmental conditions do, achieving autonomous control of the dynamic reconfiguration process. Thus, the self-optimization property is added to the native self-configurability of the dynamically scalable architectures. In addition, evolvable hardware adaptability inherently offers self-healing features. The proposal has proved to be self-tolerant, since it is able to self-recover from both transient and cumulative permanent faults. The proposed evolvable architecture has been used to implement noise removal image filters. Scalability has been also exploited in this application. Scalable evolvable hardware architectures allow the autonomous adaptation of the processing cores to a fluctuating amount of resources available in the system. Thus, it constitutes an example of the dynamic quality scalability tackled in this thesis. Two variants have been proposed. The first one consists in a single dynamically scalable evolvable core, and the second one contains a variable number of processing cores. Scalable video is a flexible approach for video compression, which offers scalability at different levels. Differently to non-scalable codecs, a scalable video bitstream can be decoded with different levels of quality, spatial or temporal resolutions, by discarding the undesired information. The interest in this technology has been fostered by the development of the Scalable Video Coding (SVC) standard, as an extension of H.264/AVC. In order to exploit all the flexibility offered by the standard, it is necessary to adapt the characteristics of the decoder to the requirements of each client during run-time. The use of dynamically scalable architectures is proposed in this thesis with this aim. The deblocking filter algorithm is the responsible of improving the visual perception of a reconstructed image, by smoothing blocking artifacts generated in the encoding loop. This is one of the most computationally intensive tasks of the standard, and furthermore, it is highly dependent on the selected scalability level in the decoder. Therefore, the deblocking filter has been selected as a proof of concept of the implementation of dynamically scalable architectures for video compression. The proposed architecture allows the run-time addition or removal of computational units working in parallel to change its level of parallelism, following a wavefront computational pattern. Scalable architecture is offered together with a scalable parallelization strategy at the macroblock level, such that when the size of the architecture changes, the macroblock filtering order is modified accordingly. The proposed pattern is based on the division of the macroblock processing into two independent stages, corresponding to the horizontal and vertical filtering of the blocks within the macroblock. The main contributions of this thesis are: - The use of highly parallel, modular, regular and local architectures to implement dynamically reconfigurable processing IP cores, for data intensive applications with flexibility requirements. - The use of two-dimensional mesh-type arrays as architectural templates to build dynamically reconfigurable IP cores, with a scalable footprint. The proposal consists in generic architectural templates, which can be tuned to solve different computational problems. •A design flow and a tool targeting the design of DPR systems, focused on highly parallel, modular and local architectures. - An inter-module communication strategy, which does not introduce delay or area overhead, named Virtual Borders. - A custom and flexible router to solve the routing conflicts as well as the inter-module communication problems, appearing during the design of DPR systems. - An algorithm addressing the optimization of systems composed of multiple scalable cores, which size can be decided individually, to optimize the system parameters. It is based on a model known as the multi-dimensional multi-choice Knapsack problem. - A reconfiguration engine tailored to the requirements of highly regular and modular architectures. It combines a high reconfiguration throughput with run-time module relocation capabilities, including the support for sub-clock reconfigurable regions and the replication in multiple positions. - A fault injection mechanism which takes advantage of the system reconfiguration engine, as well as the modularity of the proposed reconfigurable architectures, to evaluate the effects of transient and permanent faults in these architectures. - The demonstration of the possibilities of the architectures proposed in this thesis to implement evolvable hardware systems, while keeping a high processing throughput. - The implementation of scalable evolvable hardware systems, which are able to adapt to the fluctuation of the amount of resources available in the system, in an autonomous way. - A parallelization strategy for the H.264/AVC and SVC deblocking filter, which reduces the number of macroblock cycles needed to process the whole frame. - A dynamically scalable architecture that permits the implementation of a novel deblocking filter module, fully compliant with the H.264/AVC and SVC standards, which exploits the macroblock level parallelism of the algorithm. This document is organized in seven chapters. In the first one, an introduction to the technology framework of this thesis, specially focused on dynamic and partial reconfiguration, is provided. The need for the dynamically scalable processing architectures proposed in this work is also motivated in this chapter. In chapter 2, dynamically scalable architectures are described. Description includes most of the architectural contributions of this work. The design flow tailored to the scalable architectures, together with the DREAMs tool provided to implement them, are described in chapter 3. The reconfiguration engine is described in chapter 4. The use of the proposed scalable archtieectures to implement evolvable hardware systems is described in chapter 5, while the scalable deblocking filter is described in chapter 6. Final conclusions of this thesis, and the description of future work, are addressed in chapter 7.
Resumo:
Pié de imp. tomado de colofón