939 resultados para Laryngeal mask


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work, one-dimensional arrays of cylindrical adaptive liquid crystal lenses were manufactured and characterized; and test devices were filled with nematic liquid crystal. Comb interdigitated electrodes were designed as a mask pattern for the control electrode on the top glass substrates. A radial graded refractive index along each microsized lens was achieved by fabricating a layer of high resistance sheet deposited as a control electrode. These tunable lenses were switched by applying amplitude and frequency optimized waveforms on the control electrode. Phase profiles generated by the radial electric field distribution on each lens were measured by a convectional interferometric technique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Purpose: Accurate delineation of the rectum is of high importance in off-line adaptive radiation therapy since it is a major dose-limiting organ in prostate cancer radiotherapy. The intensity-based deformable image registration (DIR) methods cannot create a correct spatial transformation if there is no correspondence between the template and the target images. The variation of rectal filling, gas, or feces, creates a noncorrespondence in image intensities that becomes a great obstacle for intensity-based DIR. Methods: In this study the authors have designed and implemented a semiautomatic method to create a rectum mask in pelvic computed tomography (CT) images. The method, that includes a DIR based on the demons algorithm, has been tested in 13 prostate cancer cases, each comprising of two CT scans, for a total of 26 CT scans. Results: The use of the manual segmentation in the planning image and the proposed rectum mask method (RMM) method in the daily image leads to an improvement in the DIR performance in pelvic CT images, obtaining a mean value of overlap volume index = 0.89, close to the values obtained using the manual segmentations in both images. Conclusions: The application of the RMM method in the daily image and the manual segmentations in the planning image during prostate cancer treatments increases the performance of the registration in presence of rectal fillings, obtaining very good agreement with a physician's manual contours.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

E-beam lithography was used to pattern a titanium mask on a GaN substrate with ordered arrays of nanoholes. This patterned mask served as a template for the subsequent ordered growth of GaN/InGaN nanorods by plasma-assisted molecular beam epitaxy. The mask patterning process was optimized for several holes configurations. The smallest holes were 30 nm in diameter with a pitch (center-to-center distance) of 100 nm only. High quality masks of several geometries were obtained that could be used to grow ordered GaN/InGaN nanorods with full selectivity (growth localized inside the nanoholes only) over areas of hundreds of microns. Although some parasitic InGaN growth occurred between the nanorods during the In incorporation, transmission electron microscopy and photoluminescence measurements demonstrated that these ordered nanorods exhibit high crystal quality and reproducible optical properties.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Purpose: Accurate delineation of the rectum is of high importance in off-line adaptive radiation therapy since it is a major dose-limiting organ in prostate cancer radiotherapy. The intensity-based deformable image registration (DIR) methods cannot create a correct spatial transformation if there is no correspondence between the template and the target images. The variation of rectal filling, gas, or feces, creates a noncorrespondence in image intensities that becomes a great obstacle for intensity-based DIR. Methods: In this study the authors have designed and implemented a semiautomatic method to create a rectum mask in pelvic computed tomography (CT) images. The method, that includes a DIR based on the demons algorithm, has been tested in 13 prostate cancer cases, each comprising of two CT scans, for a total of 26 CT scans. Results: The use of the manual segmentation in the planning image and the proposed rectum mask method (RMM) method in the daily image leads to an improvement in the DIR performance in pelvic CT images, obtaining a mean value of overlap volume index = 0.89, close to the values obtained using the manual segmentations in both images. Conclusions: The application of the RMM method in the daily image and the manual segmentations in the planning image during prostate cancer treatments increases the performance of the registration in presence of rectal fillings, obtaining very good agreement with a physician's manual contours.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The highest solar cell efficiencies both for c-Si and mc-Si were reached using template based texturing processes. Especially for mc-Si the benefit of a defined texture, the so called honeycomb texture, was demonstrated impressively. However, up until now, no industrially feasible process has been available to pattern the necessary etching masks with the sufficient resolution. Roller-Nanoimprint Lithography (Roller-NIL) has the potential to overcome these limitations and to allow high quality pattern transfers, even in the sub-micron regime, in continuous in-line processes. Therefore, this etch-mask patterning technique is a suitable solution to bring such elaborate features like the honeycomb texture to an industrial realization. Beyond that, this fast printing-like technology opens up new possibilities to introduce promising concepts like photonic structures into solar cells.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work we present a new way to mask the data in a one-user communication system when direct sequence - code division multiple access (DS-CDMA) techniques are used. The code is generated by a digital chaotic generator, originally proposed by us and previously reported for a chaos cryptographic system. It is demonstrated that if the user's data signal is encoded with a bipolar phase-shift keying (BPSK) technique, usual in DS-CDMA, it can be easily recovered from a time-frequency domain representation. To avoid this situation, a new system is presented in which a previous dispersive stage is applied to the data signal. A time-frequency domain analysis is performed, and the devices required at the transmitter and receiver end, both user-independent, are presented for the optical domain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The present work describes a new methodology for the automatic detection of the glottal space from laryngeal images based on active contour models (snakes). In order to obtain an appropriate image for the use of snakes based techniques, the proposed algorithm combines a pre-processing stage including some traditional techniques (thresholding and median filter) with more sophisticated ones such as anisotropic filtering. The value selected for the thresholding was fixed to the 85% of the maximum peak of the image histogram, and the anisotropic filter permits to distinguish two intensity levels, one corresponding to the background and the other one to the foreground (glottis). The initialization carried out is based on the magnitude obtained using the Gradient Vector Flow field, ensuring an automatic process for the selection of the initial contour. The performance of the algorithm is tested using the Pratt coefficient and compared against a manual segmentation. The results obtained suggest that this method provided results comparable with other techniques such as the proposed in (Osma-Ruiz et al., 2008).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A new technology is being proposed as a solution to the problem of unintentional facial detection and recognition in pictures in which the individuals appearing want to express their privacy preferences, through the use of different tags. The existing methods for face de-identification were mostly ad hoc solutions that only provided an absolute binary solution in a privacy context such as pixelation, or a bar mask. As the number and users of social networks are increasing, our preferences regarding our privacy may become more complex, leaving these absolute binary solutions as something obsolete. The proposed technology overcomes this problem by embedding information in a tag which will be placed close to the face without being disruptive. Through a decoding method the tag will provide the preferences that will be applied to the images in further stages.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El 1 de enero de 2014 entró en vigor la Directiva Europea 2009/128/CE sobre uso sostenible de plaguicidas y el Real Decreto 1311/2012 por el cual se traspone dicha normativa comunitaria al ámbito nacional. Estos reglamentos establecen el marco legal por el que las explotaciones agrícolas deben cumplir los principios generales de la Gestión Integrada de Plagas (GIP). Los principios de la GIP dan preferencia a aquellos métodos de control que sean sostenibles y respetuosos con el medio ambiente, dando prioridad al control biológico, al físico y a otros de carácter no químico. Sin embargo, el uso de insecticidas selectivos con los enemigos naturales es necesario en ocasiones para el adecuado manejo de las plagas en cultivos hortícolas. Por ello, el objetivo general de esta Tesis ha sido aportar conocimientos para la mejora del control de plagas en cultivos hortícolas, mediante la integración de estrategias de lucha biológica, física y química. La primera de las líneas de investigación de esta Tesis se centró en el estudio del efecto de la presencia dos depredadores, larvas Chrysoperla carnea y adultos de Adalia bipunctata, en la dispersión del virus de transmisión no persistente Cucumber mosaic virus (CMV) y del virus de transmisión persistente Cucurbit aphid-borne yellows virus (CABYV), transmitidos por el pulgón Aphis gosypii en cultivo de pepino. La tasa de transmisión de CMV fue baja para los dos tiempos de evaluación ensayados (1 y 5 días), debido al limitado movimiento de su vector A. gossypii. Las plantas que resultaron infectadas se localizaron próximas a la fuente de inóculo central y la presencia de ambos enemigos naturales no incrementó significativamente el porcentaje de plantas ocupadas por pulgones ni la tasa de transmisión de CMV. Los patrones de distribución de A. gossypii y de CMV tan solo fueron coincidentes en las proximidades de la planta central infectada en la que se liberaron los insectos. En los ensayos con CABYV, la presencia de C. carnea y de A. bipunctata respectivamente provocó un incremento significativo de la dispersión de A. gossypii tras 14 días, pero no tras 7 días desde la liberación de los insectos. La reducción en el número inicial de pulgones en la planta central infectada con CABYV fue siempre mayor tras la liberación de C. carnea en comparación con A. bipunctata. Sin embargo, la tasa de transmisión de CABYV y su distribución espacial no se vieron significativamente modificadas por la presencia de ninguno de los depredadores, ni tras 7 días ni tras 14 días desde el inicio de los ensayos. Al igual que se estudió el efecto de la presencia de enemigos naturales en el comportamiento de las plagas y en la epidemiología de las virosis que transmiten, en una segunda línea de investigación se evaluó el posible efecto del consumo de pulgones portadores de virus por parte de los enemigos naturales. Este trabajo se llevó a cabo en el Laboratorio de Ecotoxicología del Departamento de Entomología de la Universidade Federal de Lavras (UFLA) (Brasil). En él se evaluó la influencia en los parámetros biológicos del enemigo natural Chrysoperla externa al alimentarse de Myzus persicae contaminados con el virus de transmisión persistente Potato leafroll virus (PLRV). El consumo de M. persicae contaminados con PLRV incrementó significativamente la duración de la fase larvaria, reduciendo también la supervivencia en comparación a otras dos dietas a base de M. persicae no contaminados con el virus y huevos del lepidóptero Ephestia kuehniella. La duración de la fase de pupa de C. externa no difirió significativamente entre las dietas a base de pulgones contaminados con PLRV y pulgones no contaminados, pero ambas fueron menores que con la dieta con huevos de E. kuehniella. Sin embargo, ni la supervivencia en la fase de pupa ni los parámetros reproductivos de los adultos emergidos mostraron diferencias significativas entre las dietas evaluadas. Por el contrario, la supervivencia de los adultos durante los 30 primeros días desde su emergencia sí se vio significativamente afectada por la dieta, siendo al término de este periodo del 54% para aquellos adultos de C. externa que durante su fase larvaria consumieron pulgones con PLRV. Dentro de la GIP, una de las estrategias de carácter físico que se emplean para el control de plagas y enfermedades en cultivos hortícolas protegidos es el uso de plásticos con propiedades fotoselectivas de absorción de la radiación ultravioleta (UV). Por ello, la tercera línea de investigación de la Tesis se centró en el estudio de los efectos directos e indirectos (mediados por la planta) de condiciones especiales de baja radiación UV sobre el crecimiento poblacional del pulgón A. gossypii y los parámetros biológicos del enemigo natural C. carnea, así como sobre las plantas de pepino en las que se liberaron los insectos. Los ensayos se realizaron en jaulones dentro de invernadero, utilizándose en el primero de ellos plantas de pepino sanas, mientras que en el segundo las plantas de pepino fueron previamente infectadas con CABYV para estudiar de qué manera afectaba la incidencia del virus en las mismas condiciones. Las condiciones de baja radiación UV (bajo plástico Térmico Antivirus®) ejercieron un efecto directo en las fases iniciales del cultivo de pepino, promoviendo su crecimiento, mientras que en fases más avanzadas del cultivo indujeron un aumento en el contenido en nitrógeno de las plantas. Las plantas de pepino que fueron sometidas a mayor intensidad de radiación UV (bajo plástico Térmico Blanco®) al inicio del cultivo mostraron un engrosamiento significativo de las paredes de las células epidérmicas del haz de las hojas, así como de la cutícula. El uso del plástico Térmico Antivirus®, utilizado como barrera fotoselectiva para crear condiciones de baja radiación UV, no alteró con respecto al plástico Térmico Blanco® (utilizado como control) el desarrollo poblacional del pulgón A. gossypii ni los parámetros biológicos evaluados en el depredador C. carnea. En el segundo experimento, realizado con plantas infectadas con CABYV, la incidencia de la virosis enmascaró las diferencias encontradas en experimento con plantas sanas, reduciendo aparentemente la influencia de las distintas condiciones de radiación UV. Por último, para el desarrollo de las estrategias de GIP es importante estudiar los posibles efectos secundarios que los plaguicidas pueden tener en los enemigos naturales de las plagas. Es por ello que en la Tesis se evaluaron la toxicidad y los efectos subletales (fecundidad y fertilidad) de flonicamida, flubendiamida, metaflumizona, spirotetramat, sulfoxaflor y deltametrina en los enemigos naturales C. carnea y A. bipunctata. Los efectos secundarios fueron evaluados por contacto residual tanto para larvas como para adultos de ambos enemigos naturales en condiciones de laboratorio. Flonicamida, flubendiamida, metaflumizona y spirotetramat fueron inocuos para larvas de último estadio y adultos de C. carnea y A. bipunctata. Por este motivo, estos insecticidas se presentan como buenos candidatos para ser incorporados dentro de programas de GIP en combinación con estos enemigos naturales para el control de plagas de cultivos hortícolas. Sulfoxaflor fue ligeramente tóxico para adultos de C. carnea y altamente tóxico para larvas de último estadio de A. bipunctata. Para A. bipunctata, sulfoxaflor y deltametrina fueron los compuestos más dañinos. Deltametrina fue también el compuesto más tóxico para larvas y adultos de C. carnea. Por tanto, el uso de deltametrina y sulfoxaflor en programas de GIP debería tomarse en consideración cuando se liberasen cualquiera de estos dos enemigos naturales debido al comportamiento tóxico que mostraron en condiciones de laboratorio. ABSTRACT On 1 January 2014 came into effect the Directive 2009/128/EC of the European Parliament about sustainable use of pesticides and the Royal Decree 1311/2012 that transposes the regulation to the Spanish level. These regulations establish the legal framework that agricultural holdings must adhere to in order to accomplish the general principles of Integrated Pest Management (IPM). The guidelines of IPM give priority to sustainable and eco-friendly pest control techniques, such as biological and physical measures. Nevertheless, the use of pesticides that are selective to natural enemies is sometimes a necessary strategy to implement accurate pest management programs in horticultural protected crops. Therefore, the general objective of this Thesis was to contribute to the improvement of pest management strategies in horticultural crops, by means of the integration of biological, physical and chemical techniques. The first research line of this Thesis was focused on the evaluation of the effects of two aphidophagous predators, Chrysoperla carnea larvae and Adalia bipunctata adults, on the spread of the non-persistently transmitted Cucumber mosaic virus (CMV, Cucumovirus) and the persistently transmitted Cucurbit aphid-borne yellows virus (CABYV, Polerovirus), by the aphid vector Aphis gossypii in a cucumber crop under greenhouse conditions. The CMV transmission rate was generally low, both after 1 and 5 days, due to the limited movement of its aphid vector A. gossypii. Infected plants were mainly located around the central virusinfected source plant, and the percentage of aphid occupation and CMV-infected plants did not differ significantly in absence and presence of natural enemies. The distribution patterns of A. gossypii and CMV were only coincident close to the central plant where insects were released. In the CABYV experiments, the presence of C. carnea larvae and A. bipunctata adults induced significant A. gossypii dispersal after 14 days but not after 7 days. The reduction in the initial aphid population established in the central plant was always higher for C. carnea than for A. bipunctata. Nevertheless, CABYV spread was not significantly modified by the presence of each predator either in the short term (7 days) or in the long term (14 days). Furthermore, the percentage of CABYV-infected plants did not significantly differ when each natural enemy was present in any evaluation period. It is important to evaluate the influence that natural enemies have on pest dynamics and on the spread of viral diseases, but it should be also taken into account the possible effect on the performance of natural enemies when they feed on preys that act as vectors of viruses. Thus, in a second research line developed in the Laboratory of Ecotoxicology, Department of Entomology, of the Universidade Federal de Lavras (UFLA) (Brazil), it was evaluated the performance of Chrysoperla externa under the condition of consuming Myzus persicae acting as vector of Potato leafroll virus (PLRV). The diet composed of PLRV-infected M. persicae significantly increased the length and reduced the survival rate, of the larval period in regard to the other two diets, composed of non-infected M. persicae and Ephestia kuehniella eggs. The lengths of the pupal stage were not significantly different between the aphid diets, but both were significantly shorter than that of E. kuehniella eggs. Neither pupal survival nor reproductive parameters revealed significant differences among the diets. Nevertheless, the adult survival curves during the first 30 days after emergence showed significant differences, reaching at the end of this interval a value of 54% for those C. externa adults fed on PLRVinfected aphids during their larval period. According to the IPM guidelines, one of the physical strategies for the control of pests and diseases in horticultural protected crops is the use of plastic films with photoselective properties that act as ultraviolet (UV) radiation blocking barriers. In this sense, the third research line of the Thesis dealt with the study of the direct and plant-mediated influence of low UV radiation conditions on the performance of the aphid A. gossypii and on the biological parameters of the natural enemy C. carnea, as well as on the cucumber plants where insects were released. The experiments were conducted inside cages under greenhouse conditions, using for the first one healthy cucumber plants, while for the second experiment the cucumber plants were previously infected with CABYV in order to assess the influence of the virus in the same conditions. The low UV radiation conditions (under Térmico Antivirus® plastic film) seemed to exert a direct effect in the early stages of cucumber plants, enhancing their growth, and in an increasing nitrogen content at further developmental stages. The higher UV radiation exposure (under Térmico Blanco® plastic film) in the early stages of the cucumber crop induced the thickening of the adaxial epidermal cell walls and the cuticle of leaves. The use of Térmico Antivirus® plastic film as a photoselective barrier to induce low UV radiation conditions did not modify, in regard to Térmico Blanco® plastic film (used as control), neither the population development of A. gossypii nor the studied biological parameters of the predator C. carnea. In the second experiment, done with CABYV-infected cucumber plants, the incidence of the virus seemed to mask the direct and plant-mediated influence of the different UV radiation conditions. In last term, for the development of IPM strategies it is important to study the potential side effects that pesticides might have on natural enemies. For this reason, in the Thesis were tested the toxicity and sublethal effects (fecundity and fertility) of flonicamid, flubendiamide, metaflumizone, spirotetramat, sulfoxaflor and deltamethrin on the natural enemies C. carnea and A. bipunctata. The side effects of the active ingredients of the insecticides were evaluated with residual contact tests for the larvae and adults of these predators under laboratory conditions. Flonicamid, flubendiamide, metaflumizone and spirotetramat were innocuous to last instar larvae and adults of C. carnea and A. bipunctata. Therefore, these pesticides are promising candidates for being incorporated into IPM programs in combination with these natural enemies for the control of particular greenhouse pests. In contrast, sulfoxaflor was slightly toxic to adults of C. carnea and was highly toxic to last instar larvae of A. bipunctata. For A. bipunctata, sulfoxaflor and deltamethrin were the most damaging compounds. Deltamethrin was also the most toxic compound to larvae and adults of C. carnea. In accordance with this fact, the use of sulfoxaflor and deltamethrin in IPM strategies should be taken into consideration when releasing either of these biological control agents, due to the toxic behavior observed under laboratory conditions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las patologías de la voz se han transformado en los últimos tiempos en una problemática social con cierto calado. La contaminación de las ciudades, hábitos como el de fumar, el uso de aparatos de aire acondicionado, etcétera, contribuyen a ello. Esto alcanza más relevancia en profesionales que utilizan su voz de manera frecuente, como, por ejemplo, locutores, cantantes, profesores o teleoperadores. Por todo ello resultan de especial interés las técnicas de ayuda al diagnóstico que son capaces de extraer conclusiones clínicas a partir de una muestra de la voz grabada con un micrófono, frente a otras invasivas que implican la exploración utilizando laringoscopios, fibroscopios o videoendoscopios, técnicas en cualquier caso mucho más molestas para los pacientes al exigir la introducción parcial del instrumental citado por la garganta, en actuaciones consideradas de tipo quirúrgico. Dentro de aquellas técnicas se ha avanzado mucho en un período de tiempo relativamente corto. En lo que se refiere al diagnóstico de patologías, hemos pasado en los últimos quince años de trabajar principalmente con parámetros extraídos de la señal de voz –tanto en el dominio del tiempo como en el de la frecuencia– y con escalas elaboradas con valoraciones subjetivas realizadas por expertos a hacerlo también con parámetros procedentes de estimaciones de la fuente glótica. La importancia de utilizar la fuente glótica reside, a grandes rasgos, en que se trata de una señal vinculada directamente al estado de la estructura laríngea del locutor y también en que está generalmente menos influida por el tracto vocal que la señal de voz. Es conocido que el tracto vocal guarda más relación con el mensaje hablado, y su presencia dificulta el proceso de detección de patología vocal. Estas estimaciones de la fuente glótica han sido obtenidas a través de técnicas de filtrado inverso desarrolladas por nuestro grupo de investigación. Hemos conseguido, además, profundizar en la naturaleza de la señal glótica: somos capaces de descomponerla y relacionarla con parámetros biomecánicos de los propios pliegues vocales, obteniendo estimaciones de elementos como la masa, la pérdida de energía o la elasticidad del cuerpo y de la cubierta del pliegue, entre otros. De las componentes de la fuente glótica surgen también los denominados parámetros biométricos, relacionados con la forma de la señal, que constituyen por sí mismos una firma biométrica del individuo. También trabajaremos con parámetros temporales, relacionados con las diferentes etapas que se observan dentro de la señal glótica durante un ciclo de fonación. Por último, consideraremos parámetros clásicos de perturbación y energía de la señal. En definitiva, contamos ahora con una considerable cantidad de parámetros glóticos que conforman una base estadística multidimensional, destinada a ser capaz de discriminar personas con voces patológicas o disfónicas de aquellas que no presentan patología en la voz o con voces sanas o normofónicas. Esta tesis doctoral se ocupa de varias cuestiones: en primer lugar, es necesario analizar cuidadosamente estos nuevos parámetros, por lo que ofreceremos una completa descripción estadística de los mismos. También estudiaremos cuestiones como la distribución de los parámetros atendiendo a criterios como el de normalidad estadística de los mismos, ocupándonos especialmente de la diferencia entre las distribuciones que presentan sujetos sanos y sujetos con patología vocal. Para todo ello emplearemos diferentes técnicas estadísticas: generación de elementos y diagramas descriptivos, pruebas de normalidad y diversos contrastes de hipótesis, tanto paramétricos como no paramétricos, que considerarán la diferencia entre los grupos de personas sanas y los grupos de personas con alguna patología relacionada con la voz. Además, nos interesa encontrar relaciones estadísticas entre los parámetros, de cara a eliminar posibles redundancias presentes en el modelo, a reducir la dimensionalidad del problema y a establecer un criterio de importancia relativa en los parámetros en cuanto a su capacidad discriminante para el criterio patológico/sano. Para ello se aplicarán técnicas estadísticas como la Correlación Lineal Bivariada y el Análisis Factorial basado en Componentes Principales. Por último, utilizaremos la conocida técnica de clasificación Análisis Discriminante, aplicada a diferentes combinaciones de parámetros y de factores, para determinar cuáles de ellas son las que ofrecen tasas de acierto más prometedoras. Para llevar a cabo la experimentación se ha utilizado una base de datos equilibrada y robusta formada por doscientos sujetos, cien de ellos pertenecientes al género femenino y los restantes cien al género masculino, con una proporción también equilibrada entre los sujetos que presentan patología vocal y aquellos que no la presentan. Una de las aplicaciones informáticas diseñada para llevar a cabo la recogida de muestras también es presentada en esta tesis. Los distintos estudios estadísticos realizados nos permitirán identificar aquellos parámetros que tienen una mayor contribución a la hora de detectar la presencia de patología vocal. Alguno de los estudios, además, nos permitirá presentar una ordenación de los parámetros en base a su importancia para realizar la detección. Por otra parte, también concluiremos que en ocasiones es conveniente realizar una reducción de la dimensionalidad de los parámetros para mejorar las tasas de detección. Por fin, las propias tasas de detección constituyen quizá la conclusión más importante del trabajo. Todos los análisis presentes en el trabajo serán realizados para cada uno de los dos géneros, de acuerdo con diversos estudios previos que demuestran que los géneros masculino y femenino deben tratarse de forma independiente debido a las diferencias orgánicas observadas entre ambos. Sin embargo, en lo referente a la detección de patología vocal contemplaremos también la posibilidad de trabajar con la base de datos unificada, comprobando que las tasas de acierto son también elevadas. Abstract Voice pathologies have become recently in a social problem that has reached a certain concern. Pollution in cities, smoking habits, air conditioning, etc. contributes to it. This problem is more relevant for professionals who use their voice frequently: speakers, singers, teachers, actors, telemarketers, etc. Therefore techniques that are capable of drawing conclusions from a sample of the recorded voice are of particular interest for the diagnosis as opposed to other invasive ones, involving exploration by laryngoscopes, fiber scopes or video endoscopes, which are techniques much less comfortable for patients. Voice quality analysis has come a long way in a relatively short period of time. In regard to the diagnosis of diseases, we have gone in the last fifteen years from working primarily with parameters extracted from the voice signal (both in time and frequency domains) and with scales drawn from subjective assessments by experts to produce more accurate evaluations with estimates derived from the glottal source. The importance of using the glottal source resides broadly in that this signal is linked to the state of the speaker's laryngeal structure. Unlike the voice signal (phonated speech) the glottal source, if conveniently reconstructed using adaptive lattices, may be less influenced by the vocal tract. As it is well known the vocal tract is related to the articulation of the spoken message and its influence complicates the process of voice pathology detection, unlike when using the reconstructed glottal source, where vocal tract influence has been almost completely removed. The estimates of the glottal source have been obtained through inverse filtering techniques developed by our research group. We have also deepened into the nature of the glottal signal, dissecting it and relating it to the biomechanical parameters of the vocal folds, obtaining several estimates of items such as mass, loss or elasticity of cover and body of the vocal fold, among others. From the components of the glottal source also arise the so-called biometric parameters, related to the shape of the signal, which are themselves a biometric signature of the individual. We will also work with temporal parameters related to the different stages that are observed in the glottal signal during a cycle of phonation. Finally, we will take into consideration classical perturbation and energy parameters. In short, we have now a considerable amount of glottal parameters in a multidimensional statistical basis, designed to be able to discriminate people with pathologic or dysphonic voices from those who do not show pathology. This thesis addresses several issues: first, a careful analysis of these new parameters is required, so we will offer a complete statistical description of them. We will also discuss issues such as distribution of the parameters, considering criteria such as their statistical normality. We will take special care in the analysis of the difference between distributions from healthy subjects and the distributions from pathological subjects. To reach these goals we will use different statistical techniques such as: generation of descriptive items and diagramas, tests for normality and hypothesis testing, both parametric and nonparametric. These latter techniques consider the difference between the groups of healthy subjects and groups of people with an illness related to voice. In addition, we are interested in finding statistical relationships between parameters. There are various reasons behind that: eliminate possible redundancies in the model, reduce the dimensionality of the problem and establish a criterion of relative importance in the parameters. The latter reason will be done in terms of discriminatory power for the criterion pathological/healthy. To this end, statistical techniques such as Bivariate Linear Correlation and Factor Analysis based on Principal Components will be applied. Finally, we will use the well-known technique of Discriminant Analysis classification applied to different combinations of parameters and factors to determine which of these combinations offers more promising success rates. To perform the experiments we have used a balanced and robust database, consisting of two hundred speakers, one hundred of them males and one hundred females. We have also used a well-balanced proportion where subjects with vocal pathology as well as subjects who don´t have a vocal pathology are equally represented. A computer application designed to carry out the collection of samples is also presented in this thesis. The different statistical analyses performed will allow us to determine which parameters contribute in a more decisive way in the detection of vocal pathology. Therefore, some of the analyses will even allow us to present a ranking of the parameters based on their importance for the detection of vocal pathology. On the other hand, we will also conclude that it is sometimes desirable to perform a dimensionality reduction in order to improve the detection rates. Finally, detection rates themselves are perhaps the most important conclusion of the work. All the analyses presented in this work have been performed for each of the two genders in agreement with previous studies showing that male and female genders should be treated independently, due to the observed functional differences between them. However, with regard to the detection of vocal pathology we will consider the possibility of working with the unified database, ensuring that the success rates obtained are also high.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJETOS TENACES versa sobre la práctica del adaptive reuse (la “reutilización adaptativa”, la reconversión) explicado a través del fenómeno de ruptura, suspensión y reconfiguración de vínculos que el objeto arquitectónico tiene con respecto a su medio económico, sociocultural, normativo y de utilitas. Se trata de un fenómeno en tres fases, muy próximo al mecanismo empleado por el readymade y por el display, que en arquitectura parte de la crisis que supone un cambio de circunstancias, un desarraigo del objeto respecto de su ámbito anterior. El mecanismo tiene vocación de intervención mínima, desde un posicionamiento actual que comprende el mundo construido como una realidad “ya hecha”, y donde las operaciones de proyecto son acciones de transformación que llevan de una situación de obsolescencia a otra de vigencia renovada, es decir, de una realidad completa a otra igualmente completa. Para ello, la investigación se sirve de tres ejemplos de un mismo entorno geográfico (el área en torno a Meatpacking, en el lado oeste del bajo Manhattan, Nueva York) y temporal (las últimas décadas del siglo XX, en las que los casos se solapan a pesar de tener desarrollos cronológicos diversos). Bell Telephone Laboratories, The West Side Improvement y The National Biscuit Company, reconvertidos a Westbeth, a The High Line y a Chelsea Market, construyen juntos el argumento por suma de conceptos, por adición de fenómenos, estudiando las cualidades y las circunstancias que hacen posible la continuidad de las estructuras, es decir, su supervivencia. El texto forma un corpus que proporciona algunas de las claves del objeto denominado como tenaz a través del análisis sincrónico del antes y el después de su puesta en crisis. A tal efecto, se exponen una serie de figuras razonadas entre las cuales figuran el lijado del barniz, los hilos compartidos, la máscara, la momificación y la vitrina, el puente sobre le desfiladero, el enfriamiento, o las reliquias, incrustaciones y adherencias, todas ellas encaminadas a explicar el proceso de renovación del artefacto como un cambio en el sentido, en el significado, y no tanto en lo material. Entre las consideraciones de la tesis está, por un lado, el carácter relativo del término tenacidad, concepto que define a los objetos que se encuentran y se reconocen en su idoneidad, que tienen capacidad de adaptación, y que precisan finalmente de grandes dosis de pragmatismo para su reconfiguración, siendo todas éstas condiciones necesarias pero sólo suficientes a posteriori. Por otro lado, el texto reflexiona acerca del intangible que comparten todos los objetos así llamados y que consiste en la condición, quizá formidable, de ser reconocibles por parte de los sucesivos intervinientes de su historia, convencidos de que su renovación supone una oportunidad; su desaparición, una pérdida. Finalmente, la investigación apunta hacia el concepto de anacronismo como justificación para los objetos que se demuestran adaptables a épocas sucesivas, y que encajan en el tiempo de forma compleja. ABSTRACT TENACIOUS OBJECTS deals with the practice of the adaptive reuse explained by means of the phenomenon of rupture, suspension and reconfiguration of links that the architectural object has vis-à-vis its economic, socio-cultural and regulatory environment, and its utilitas. It is a phenomenon structured in three stages, very close to the mechanism used by the readymade and by the display, which in architecture arise from the crisis that leads to a change in circumstances, an alienation of the object regarding its previous environment. The mechanism aims to the minimum intervention, from a current positioning which understands the world built as a reality “already made”, and where the operations of the project are transformative actions that take us from a situation of obsolescence to a situation of renewed validity, that is, from a complete reality to one just as complete. For this purpose, the research makes use of three examples in the same geographical area (the Meatpacking Discrict, in the Lower West Side of Manhattan, New York) and the same period (the last decades of the 20th century, in which the cases overlap in spite of their diverse chronological developments). Bell Telephone Laboratories, The West Side Improvement and The National Biscuit Company, reconverted into Westbeth, The High Line and Chelsea Market, make up, together, the argument as a sum of concepts, and addition of phenomena, studying the qualities and circumstances which make the continuity of the structures possible, that is, their survival. The text forms a corpus that provides some of the keys of the so-called tenacious object by means of the synchronic analysis of before and after its crisis. To this end, a series of reasoned figures is presented, including the sanding of varnish, the shared threads, the mask, the mummification and the display cabinet, the bridge over the gorge, cooling, or the relics, incrustations and adherences, all of them aimed at explaining the renovation process of the artifact as a change in the sense and the meaning, rather than the material. The considerations of this dissertation include, on the one hand, the relative nature of the term tenacity, a concept which defines the objects found and recognized in their suitability, that are capable of adapting and which finally require large doses of pragmatism for their reconfiguration, all these conditions being necessary but only sufficient a posteriori. On the other hand, the text reflects on the intangible shared among all the so-called objects, and which consists of the condition, perhaps extraordinary, of being recognized by the subsequent interveners of their history, convinced that their renovation represents an opportunity; their disappearance, a loss. Finally, the dissertation studies the concept of anachronism as a justification for the objects that prove to adapt to subsequent periods, and which fit in time in a complex manner.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis doctoral, bajo el título “La transformación de la fachada en la arquitectura del siglo XX. Evolución de los elementos arquitectónicos hacia el espacio único”, examina –siguiendo el método deductivo mediante investigación documental y de campo– los principales mecanismos proyectuales que han originado una transformación arquitectónica en la fachada. El término fachada, leído normalmente como sinónimo de arquitectura, ha sido analizado bajo taxonomías historiográficas, sociopolíticas, formales, compositivas o materiales. Más allá de estas clasificaciones, esta investigación determina cómo han evolucionado los elementos arquitectónicos hacia el espacio único, transformando con ello tanto la realidad física como el concepto de fachada. Proyectar, como diría Robert Venturi1. 1966, tanto desde el exterior al interior como desde el interior al exterior, produce las tensiones necesarias que ayudan a generar la arquitectura. De ahí la importancia del estudio de la transformación de la fachada como faccia, máscara, disfraz o sistema de representación, a la fachada como un diafragma activo, como un espacio de relación o como un límite donde se produce una experiencia arquitectónica con nuevos significados. El término fachada, del latín facies y del italiano facciata, fue creado como tal durante el siglo XVI, aunque como elemento arquitectónico es una realidad clásica y un concepto humanista reinventado en el Renacimiento. A principios del siglo XX la fachada se transforma radicalmente, con la aparición del vidrio plano de grandes dimensiones, y se despoja de su carga historicista. La transparencia literal hace desaparecer (negar) la fachada. La fachada se construye con nuevos materiales, nuevas tecnologías, y responde a un espacio global que espera a ser colonizado por una sociedad en constante mutación; un espacio que irá siendo cada vez más complejo a lo largo del siglo pasado y que tendrá como una de sus principales consecuencias un mayor grado de abstracción en la fachada. Para desarrollar con mayor precisión las intenciones de este trabajo se analiza la acepción de fachada en la que se encuadra la línea de investigación de la tesis doctoral. Siguiendo las indicaciones del Profesor Kenneth Frampton, se ha optado por dedicar precisamente a este análisis el primer capítulo, de precedentes, con el fin de hacer una relectura de la fachada barroca en clave contemporánea. La fachada barroca se estudia como un punto de inflexión, y origen de la transformación, frente al clasicismo de siglos precedentes. Se plantea por tanto como el primero de los mecanismos proyectuales motivo de estudio. Estos mecanismos han sido sometidos a una clasificación que responde a diversos tipos de espacio arquitectónico que han provocado la transformación de la fachada, analizando cada uno de ellos con un filtro bajo el cual se ha desarrollado un estudio pormenorizado. De esta manera se examinan la transformación compositiva de la fachada por medio del espacio dinámico (capítulo 00_precedentes) en San Carlo alle Quattro Fontane de Francesco Borromini, la transformación constructiva de la fachada por medio del espacio membrana (capítulo 01) en la Villa Tugendhat de Mies van der Rohe, la transformación diagramática de la fachada por medio del espacio pliegue (capítulo 02) en la terminal portuaria de Yokohama de FOA, la transformación tecnológica de la fachada por medio del espacio estructura (capítulo 03) en la mediateca de Sendai de Toyo Ito y, finalmente, la transformación fenomenológica de la fachada por medio del espacio múltiple (capítulo 04) en el pabellón de vidrio del Museo Toledo de SANAA. La investigación se completa con el análisis de una serie de textos que acompañan a cada uno de los capítulos, generando así un cuerpo de conocimiento global junto al análisis documental y las visitas de campo de cada uno de los casos de estudio considerados. ABSTRACT This doctoral thesis entitled “The Transformation of the Façade in Twentieth Century Architecture. The Evolution of Architectural Elements Towards a Single Space“ employs a deductive methodology incorporating both archival and field research, to examine the main design strategies that have given rise to the architectural transformation of the façade. The term façade, usually read as a synonym for architecture, has been analyzed under historiographic, sociopolitical, formal, compositive and material taxonomies. Far beyond these classifications, this study determines how architectural elements have evolved towards a single space, consequently transforming both the physical reality and the concept of façade. As Robert Venturi would say,1 to design from the inside-out and from the outside-in can create valid tensions that help generate architecture, hence the importance of this study of the transformation of the façade as a faccia, a mask, disguise or representation system, to the façade as an active diaphragm, a connective space or a limit within which architectural events with new meaning take place. The term fachada (Spanish for façade), from the Latin facies and the Italian facciata, appeared as such during the sixteenth century, although as an architectural element it is a classical ingredient and a humanist concept reinvented during the Renaissance. At the beginning of the 20th century, the façade is radically transformed with the introduction of large format plate glass, stripping it of its historicist content. Literal transparency causes the façade to disappear. The façade is built with new materials, new technologies, responding to a global space to be occupied by an everchanging society. It is a space that becomes increasingly more complex throughout the last century and which will have, as a consequence, a larger degree of abstraction in the façade. In order to more precisely focus this investigation, the meaning of the façade has been scrutinized. Following Professor Kenneth Frampton’s advice, the first chapter -Precedents- is precisely dedicated to this analysis, in order to understand the baroque façade read in a contemporary manner. The baroque façade has been studied as a turning point, the origin of the transformation of the façade, as compared to the classicism of previous centuries. For this reason it is considered the first design strategy to be studied. These strategeies have been sorted into a classification of architectural spaces that have caused the transformation of the façade, all of which having been analyzed using a methodology allowing for detailed study. Thus, this investigation examines the compositional transformation of the façade by means of a dynamic space (chapter 00: Precedents) in San Carlo alle Quattro Fontane by Francesco Borromini, the constructive transformation of the façade by means of a membrane space (chapter 01) in the Tugendhat Villa by Mies van der Rohe, the diagrammatic transformation of the façade by means of a folded space (chapter 02) in the Yokohama International Port Terminal by FOA, the technological transformation of the façade by means of a structure space (chapter 03) in the Sendai Mediathèque by Toyo Ito, and finally, the technological transformation of the façade by means of multiple space (chapter 04) in the Glass Pavilion of the Toledo Museum of Art by SANAA. The research is supplemented by the analysis of a series of texts presented alongside each chapter; creating a global body of knowledge together alongside the documentary analysis and on site analysis of each of the case studies considered.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A colonial protochordate, Botryllus schlosseri, undergoes a natural transplantation reaction in the wild that results alternatively in colony fusion (chimera formation) or inflammatory rejection. A single, highly polymorphic histocompatibility locus (called Fu/HC) is responsible for rejection versus fusion. Gonads are seeded and gametogenesis can occur in colonies well after fusion, and involves circulating germ-line progenitors. Buss proposed that colonial organisms might develop self/non-self histocompatibility systems to limit the possibility of interindividual germ cell “parasitism” (GCP) to histocompatible kin [Buss, L. W. (1982) Proc. Natl. Acad. Sci. USA 79, 5337–5341 and Buss, L. W. (1987) The Evolution of Individuality (Princeton Univ. Press, Princeton]. Here we demonstrate in laboratory and field experiments that both somatic cell and (more importantly) germ-line parasitism are a common occurrence in fused chimeras. These experiments support the tenet in Buss’s hypothesis that germ cell and somatic cell parasitism can occur in fused chimeras and that a somatic appearance may mask the winner of a gametic war. They also provide an interesting challenge to develop formulas that describe the inheritance of competing germ lines rather than competing individuals. The fact that fused B. schlosseri have higher rates of GCP than unfused colonies additionally provides a rational explanation for the generation and maintenance of a high degree of Fu/HC polymorphism, largely limiting GCP to sibling offspring.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Little is known about the physiological mechanisms subserving the experience of air hunger and the affective control of breathing in humans. Acute hunger for air after inhalation of CO2 was studied in nine healthy volunteers with positron emission tomography. Subjective breathlessness was manipulated while end-tidal CO2- was held constant. Subjects experienced a significantly greater sense of air hunger breathing through a face mask than through a mouthpiece. The statistical contrast between the two conditions delineated a distributed network of primarily limbic/paralimbic brain regions, including multiple foci in dorsal anterior and middle cingulate gyrus, insula/claustrum, amygdala/periamygdala, lingual and middle temporal gyrus, hypothalamus, pulvinar, and midbrain. This pattern of activations was confirmed by a correlational analysis with breathlessness ratings. The commonality of regions of mesencephalon, diencephalon and limbic/paralimbic areas involved in primal emotions engendered by the basic vegetative systems including hunger for air, thirst, hunger, pain, micturition, and sleep, is discussed with particular reference to the cingulate gyrus. A theory that the phylogenetic origin of consciousness came from primal emotions engendered by immediate threat to the existence of the organism is discussed along with an alternative hypothesis by Edelman that primary awareness emerged with processes of ongoing perceptual categorization giving rise to a scene [Edelman, G. M. (1992) Bright Air, Brilliant Fire (Penguin, London)].