909 resultados para supramolecular architectures
Resumo:
The cytoskeleton, composed of actin filaments, intermediate filaments, and microtubules, is a highly dynamic supramolecular network actively involved in many essential biological mechanisms such as cellular structure, transport, movements, differentiation, and signaling. As a first step to characterize the biophysical changes associated with cytoskeleton functions, we have developed finite elements models of the organization of the cell that has allowed us to interpret atomic force microscopy (AFM) data at a higher resolution than that in previous work. Thus, by assuming that living cells behave mechanically as multilayered structures, we have been able to identify superficial and deep effects that could be related to actin and microtubule disassembly, respectively. In Cos-7 cells, actin destabilization with Cytochalasin D induced a decrease of the visco-elasticity close to the membrane surface, while destabilizing microtubules with Nocodazole produced a stiffness decrease only in deeper parts of the cell. In both cases, these effects were reversible. Cell softening was measurable with AFM at concentrations of the destabilizing agents that did not induce detectable effects on the cytoskeleton network when viewing the cells with fluorescent confocal microscopy. All experimental results could be simulated by our models. This technology opens the door to the study of the biophysical properties of signaling domains extending from the cell surface to deeper parts of the cell.
Resumo:
Aquest projecte compara les possibilitats per a aplicacions multimèdia d'algunes de les arquitectures de processador que podem trobar en sistemes encastats. Per fer-ho s'ha seleccionat una sèrie de benchmarks que inclouen una mostra d'aplicacions multimèdia, així com un conjunt de benchmarks que ens permet mesurar aspectes d'un sistema operatiu GNU/Linux. També s'ha determinat quines haurien de ser les principals mètriques a considerar en el context dels sistemes encastats.
Resumo:
Different ‘monetary architectures’ are distinguished, as a background to a discussion of the change in developed country monetary policy frameworks from fixed exchange rates under the Bretton Woods international monetary system to, ultimately, formal or informal inflation targeting. The introduction and experience of monetary targets in the 1970s is considered, followed by an analysis of the changes in countries’ monetary architectures, with particular reference to money and bond markets and to France and Italy, in the 1980s. Exchange rate targeting in Europe in the 1980s and 1990s is examined, followed by the changes in central bank independence in the 1990s. This leads to a discussion of the introduction of inflation targeting, and the issues raised for inflation targeting by the financial crisis of the late 2000s.
Resumo:
Three polar types of monetary architecture are identified together with the institutional and market infrastructure required for each type and the kinds of monetary policy feasible in each case: a ‘basic’ architecture where there is little or no financial system as such but an elementary central bank which is able to fix the exchange rate, as a substitute for a proper monetary policy; a ‘modern’ monetary architecture with developed banks, financial markets and central bank where policy choices include types of inflation targeting; and an ‘intermediate’ monetary architecture where less market-based monetary policies involving less discretion are feasible. A range of data is used to locate the various MENA countries with respect to these polar types. Five countries (Iran, Libya, Sudan, Syria and Yemen) are identified as those with the least developed monetary architecture, while Bahrain and Jordan are identified as the group at the other end of the spectrum, reaching beyond the intermediate polar type in some dimensions but not others. The countries in between vary on different dimensions but all lie between basic and intermediate architectures. The key general findings are that the MENA countries are both less differentiated and less ‘developed’ than might have been expected. The paper ends by calling for research on the costs and benefits of different types of monetary architecture.
Resumo:
Los procesadores multi-core y el multi-threading por hardware permiten aumentar el rendimiento de las aplicaciones. Por un lado, los procesadores multi-core combinan 2 o más procesadores en un mismo chip. Por otro lado, el multi-threading por hardware es una técnica que incrementa la utilización de los recursos del procesador. Este trabajo presenta un análisis de rendimiento de los resultados obtenidos en dos aplicaciones, multiplicación de matrices densas y transformada rápida de Fourier. Ambas aplicaciones se han ejecutado en arquitecturas multi-core que explotan el paralelismo a nivel de thread pero con un modelo de multi-threading diferente. Los resultados obtenidos muestran la importancia de entender y saber analizar el efecto del multi-core y multi-threading en el rendimiento.
Resumo:
En los últimos tiempos la telefonía móvil ha experimentado una reducción de los terminales gracias a la miniaturización de los filtros a frecuencias de microondas. Los filtros pasa banda más utilizados son los basados en la tecnología SAW, sin embargo son incompatibles con tecnologías de silicio y su comportamiento se degrada a frecuencias superiores de 3 GHz, por ello los estudios actuales se centran en la tecnología BAW. Las dos arquitecturas convencionales de filtros basados en resonadores BAW unidos eléctricamente son el ladder y lattice. Sin embargo, en este proyecto se estudiará la topología half lattice, la cual presenta un mejor comportamiento y unas dimensiones más reducidas. Para ello se obtendrán las ecuaciones de diseño del filtro, y con ellas se realizará la implementación a partir de la frecuencia central y el ancho de banda relativo.
Resumo:
La gestión de recursos en los procesadores multi-core ha ganado importancia con la evolución de las aplicaciones y arquitecturas. Pero esta gestión es muy compleja. Por ejemplo, una misma aplicación paralela ejecutada múltiples veces con los mismos datos de entrada, en un único nodo multi-core, puede tener tiempos de ejecución muy variables. Hay múltiples factores hardware y software que afectan al rendimiento. La forma en que los recursos hardware (cómputo y memoria) se asignan a los procesos o threads, posiblemente de varias aplicaciones que compiten entre sí, es fundamental para determinar este rendimiento. La diferencia entre hacer la asignación de recursos sin conocer la verdadera necesidad de la aplicación, frente a asignación con una meta específica es cada vez mayor. La mejor manera de realizar esta asignación és automáticamente, con una mínima intervención del programador. Es importante destacar, que la forma en que la aplicación se ejecuta en una arquitectura no necesariamente es la más adecuada, y esta situación puede mejorarse a través de la gestión adecuada de los recursos disponibles. Una apropiada gestión de recursos puede ofrecer ventajas tanto al desarrollador de las aplicaciones, como al entorno informático donde ésta se ejecuta, permitiendo un mayor número de aplicaciones en ejecución con la misma cantidad de recursos. Así mismo, esta gestión de recursos no requeriría introducir cambios a la aplicación, o a su estrategia operativa. A fin de proponer políticas para la gestión de los recursos, se analizó el comportamiento de aplicaciones intensivas de cómputo e intensivas de memoria. Este análisis se llevó a cabo a través del estudio de los parámetros de ubicación entre los cores, la necesidad de usar la memoria compartida, el tamaño de la carga de entrada, la distribución de los datos dentro del procesador y la granularidad de trabajo. Nuestro objetivo es identificar cómo estos parámetros influyen en la eficiencia de la ejecución, identificar cuellos de botella y proponer posibles mejoras. Otra propuesta es adaptar las estrategias ya utilizadas por el Scheduler con el fin de obtener mejores resultados.
Resumo:
Este trabajo analiza el rendimiento del algoritmo de alineamiento de secuencias conocido como Needleman-Wunsch, sobre 3 sistemas de cómputo multiprocesador diferentes. Se analiza y se codifica el algoritmo serie usando el lenguaje de programación C y se plantean una serie de optimizaciones con la finalidad de minimizar el volumen y el tiempo de cómputo. Posteriormente, se realiza un análisis de las prestaciones del programa sobre los diferentes sistemas de cómputo. En la segunda parte del trabajo, se paraleliza el algoritmo serie y se codifica ayudándonos de OpenMP. El resultado son dos variantes del programa que difieren en la relación entre la cantidad de cómputo y la de comunicación. En la primera variante, la comunicación entre procesadores es poco frecuente y se realiza tras largos periodos de ejecución (granularidad gruesa). En cambio, en la segunda variante las tareas individuales son relativamente pequeñas en término de tiempo de ejecución y la comunicación entre los procesadores es frecuente (granularidad fina). Ambas variantes se ejecutan y analizan en arquitecturas multicore que explotan el paralelismo a nivel de thread. Los resultados obtenidos muestran la importancia de entender y saber analizar el efecto del multicore y multithreading en el rendimiento.
Resumo:
En los últimos años el crecimiento de la nanotecnología ha revolucionado el mundo de la investigación farmacológica promoviendo la investigación de nuevos vehículos de transporte de fármacos de tamaño nanométrico denominados “drug nanocarriers” entre los cuales las vesículas y las partículas poliméricas biodegradables son los que se han estudiado más ampliamente. Estas entidades son interesantes ya que pueden mejorar la biodisponibilidad del activo y pueden ser empleadas como materiales inteligentes que pueden transportar el activo al sitio específico de acción. A pesar de haber sido demostrado que con estos dispositivos en muchos casos se consigue administrar el fármaco de un modo más eficiente que administrando éste en su forma libre, el éxito de estos “nanocarriers” está ligado al desarrollo de tecnologías reproducibles, eficientes, respetuosas con el medio ambiente y fácilmente escalables que permitan su producción a escala industrial. A día de hoy las tecnologías basadas en fluidos comprimidos (FCs), que emergieron a principio de los años 90 como una alternativa al uso de disolventes líquidos convencionales en la producción de materiales micro- y nanoparticulados, están siendo investigadas para la producción de diversos “nanocarriers”. Algunas de las ventajas de estas tecnologías son: la reducción en el uso de disolventes orgánicos, el empleo de bajas temperaturas de procesado, disminución del número de etapas de producción, ser fácilmente escalables y reproducibles. A su vez, este tipo de procesos permiten obtener productos más uniformes estructuralmente que aquellos obtenidos mediante tecnologías convencionales. Dentro de este marco el grupo Nanomol (ICMAB-CSIC) ha desarrollado el proceso DELOS-susp, basado en el uso de fluidos comprimidos, para la obtención en un solo paso de producción vesículas unilamelares pequeñas (SUVs) con elevada uniformidad tanto a nivel de tamaño y morfología como a nivel supramolecular con aplicación en nanomedicina. Como un paso más en el desarrollo del proceso DELOS-susp para la producción de SUVs, en este proyecto se ha estudiado y probado la viabilidad de este proceso para le encapsulación de activos hidrofílicos en vesículas catiónicas de colesterol:CTAB usando sulfato de gentamicina como activo hidrofílico modelo y se ha demostrado la factibilidad de un escalado del proceso por un factor de 50.
Resumo:
Este documento refleja el estudio de investigación para la detección de factores que afectan al rendimiento en entornos multicore. Debido a la gran diversidad de arquitecturas multicore se ha definido un marco de trabajo, que consiste en la adopción de una arquitectura específica, un modelo de programación basado en paralelismo de datos, y aplicaciones del tipo Single Program Multiple Data. Una vez definido el marco de trabajo, se han evaluado los factores de rendimiento con especial atención al modelo de programación. Por este motivo, se ha analizado la librería de threads y la API OpenMP para detectar aquellas funciones sensibles de ser sintonizadas al permitir un comportamiento adaptativo de la aplicación al entorno, y que dependiendo de su adecuada utilización han de mejorar el rendimiento de la aplicación.
Resumo:
ABSTRACT: q-Space-based techniques such as diffusion spectrum imaging, q-ball imaging, and their variations have been used extensively in research for their desired capability to delineate complex neuronal architectures such as multiple fiber crossings in each of the image voxels. The purpose of this article was to provide an introduction to the q-space formalism and the principles of basic q-space techniques together with the discussion on the advantages as well as challenges in translating these techniques into the clinical environment. A review of the currently used q-space-based protocols in clinical research is also provided.
Resumo:
With the advent of High performance computing, it is now possible to achieve orders of magnitude performance and computation e ciency gains over conventional computer architectures. This thesis explores the potential of using high performance computing to accelerate whole genome alignment. A parallel technique is applied to an algorithm for whole genome alignment, this technique is explained and some experiments were carried out to test it. This technique is based in a fair usage of the available resource to execute genome alignment and how this can be used in HPC clusters. This work is a rst approximation to whole genome alignment and it shows the advantages of parallelism and some of the drawbacks that our technique has. This work describes the resource limitations of current WGA applications when dealing with large quantities of sequences. It proposes a parallel heuristic to distribute the load and to assure that alignment quality is mantained.
Resumo:
Aquest projecte consisteix en evolucionar el LittleProc 1.0, un processador simple dissenyat per ser destinat al món de la docència per tres professors de la UAB. Aquestes evolucions consisteixen en aplicar diversos mètodes i arquitectures diferents per tal d’obtenir un millor rendiment del processador, arribant a executar programes amb la meitat de temps que tardava el LittleProc 1.0. Un cop implementades les diferents arquitectures per tal de millorar el rendiment, es realitzarà un estudi de quin tant per cent de millora ha sigut aquest rendiment.
Resumo:
Given the urgence of a new paradigm in wireless digital trasmission which should allow for higher bit rate, lower latency and tigher delay constaints, it has been proposed to investigate the fundamental building blocks that at the circuital/device level, will boost the change towards a more efficient network architecture, with high capacity, higher bandwidth and a more satisfactory end user experience. At the core of each transciever, there are inherently analog devices capable of providing the carrier signal, the oscillators. It is strongly believed that many limitations in today's communication protocols, could be relieved by permitting high carrier frequency radio transmission, and having some degree of reconfigurability. This led us to studying distributed oscillator architectures which work in the microwave range and possess wideband tuning capability. As microvave oscillators are essentially nonlinear devices, a full nonlinear analyis, synthesis, and optimization had to be considered for their implementation. Consequently, all the most used nonlinear numerical techniques in commercial EDA software had been reviewed. An application of all the aforementioned techniques has been shown, considering a systems of three coupled oscillator ("triple push" oscillator) in which the stability of the various oscillating modes has been studied. Provided that a certain phase distribution is maintained among the oscillating elements, this topology permits a rise in the output power of the third harmonic; nevertheless due to circuit simmetry, "unwanted" oscillating modes coexist with the intenteded one. Starting with the necessary background on distributed amplification and distributed oscillator theory, the design of a four stage reverse mode distributed voltage controlled oscillator (DVCO) using lumped elments has been presented. All the design steps have been reported and for the first time a method for an optimized design with reduced variations in the output power has been presented. Ongoing work is devoted to model a wideband DVCO and to implement a frequency divider.