225 resultados para FSS reconfiguráveis
Resumo:
ZUSAMMENFASSUNG: Proteinkinasen übernehmen zentrale Aufgaben in der Signaltransduktion höherer Zellen. Dabei ist die cAMP-abhängige Proteinkinase (PKA) bezüglich ihrer Struktur und Funktion eine der am besten charakterisierten Proteinkinasen. Trotzdem ist wenig über direkte Interaktionspartner der katalytischen Untereinheiten (PKA-C) bekannt. In einem Split-Ubiquitin basiertem Yeast Two Hybrid- (Y2H-)System wurden potenzielle Interaktionspartner der PKA-C identifiziert. Als Bait wurden sowohl die humane Hauptisoform Cα (hCα) als auch die Proteinkinase X (PrKX) eingesetzt. Nach der Bestätigung der Funktionalität der PKA-C-Baitproteine, dem Nachweis der Expression und der Interaktion mit dem bekannten Interaktionspartner PKI wurde ein Y2H-Screen gegen eine Mausembryo-cDNA-Expressionsbibliothek durchgeführt. Von 2*10^6 Klonen wurden 76 Kolonien isoliert, die ein mit PrKX interagierendes Preyprotein exprimierten. Über die Sequenzierung der enthaltenen Prey-Vektoren wurden 25 unterschiedliche, potenzielle Interaktionspartner identifiziert. Für hCα wurden über 2*10^6 S. cerevisiae-Kolonien untersucht, von denen 1.959 positiv waren (1.663 unter erhöhter Stringenz). Über die Sequenzierung von ca. 10% der Klone (168) konnten Sequenzen für 67 verschiedene, potenzielle Interaktionspartner der hCα identifiziert werden. 15 der Preyproteine wurden in beiden Screens identifiziert. Die PKA-C-spezifische Wechselwirkung der insgesamt 77 Preyproteine wurde im Bait Dependency Test gegen largeT, ein Protein ohne Bezug zum PKA-System, untersucht. Aus den PKA-C-spezifischen Bindern wurden die löslichen Preyproteine AMY-1, Bax72-192, Fabp3, Gng11, MiF, Nm23-M1, Nm23-M2, Sssca1 und VASP256-375 für die weitere in vitro-Validierung ausgewählt. Die Interaktion von FLAG-Strep-Strep-hCα (FSS-hCα) mit den über Strep-Tactin aus der rekombinanten Expression in E. coli gereinigten One-STrEP-HA-Proteinen (SSHA-Proteine) wurde über Koimmunpräzipitation für SSHA-Fabp3, -Nm23-M1, -Nm23-M2, -Sssca1 und -VASP256-375 bestätigt. In SPR-Untersuchungen, für die hCα kovalent an die Oberfläche eines CM5-Sensorchips gekoppelt wurde, wurden die ATP/Mg2+-Abhängigkeit der Bindungen sowie differentielle Effekte der ATP-kompetitiven Inhibitoren H89 und HA-1077 untersucht. Freie hCα, die vor der Injektion zu den SSHA-Proteinen gegeben wurde, kompetierte im Gegensatz zu FSS-PrKX die Bindung an die hCα-Oberfläche. Erste kinetische Analysen lieferten Gleichgewichtsdissoziationskonstanten im µM- (SSHA-Fabp3, -Sssca1), nM- (SSHA-Nm23-M1, –M2) bzw. pM- (SSHA-VASP256-375) Bereich. In funktionellen Analysen konnte eine Phosphorylierung von SSHA-Sssca1 und VASP256-375 durch hCα und FSS-PrKX im Autoradiogramm nachgewiesen werden. SSHA-VASP256-375 zeigte zudem eine starke Inhibition von hCα im Mobility Shift-Assay. Dieser inhibitorische Effekt sowie die hohe Affinität konnten jedoch auf eine Kombination aus der Linkersequenz des Vektors und dem N-Terminus von VASP256-375 zurückgeführt werden. Über die Wechselwirkungen der hier identifizierten Interaktionspartner Fabp3, Nm23-M1 und Nm23-M2 mit hCα können in Folgeuntersuchungen neue PKA-Funktionen insbesondere im Herzen sowie während der Zellmigration aufgedeckt werden. Sssca1 stellt dagegen ein neues, näher zu charakterisierendes PKA-Substrat dar.
Resumo:
Determinar cuáles son las respuestas que los adolescentes de ambos sexos, estudiantes de Bachillerato, dan a un cuestionario de temores de 122 elementos, basado en Wolpe. Establecer la diferencia estadística que puede existir entre los distintos cursos de Bachillerato, en cada sexo, y entre ambos sexos, en cada curso. Ello con relación a cada uno de los elementos del cuestionario. 323 alumnos de Bachillerato de centro público de Sevilla. Pase del cuestionario para a continuación proceder a la elaboración estadística de los datos. Inventario de miedos FSS-III-122. Técnicas estadísticas. Existen diferencias significativas en las respuestas a los diversos ítems del cuestionario entre los grupos de sujetos. Existen diferencias significativas para determinados ítems del cuestionario al comparar entre sí los distintos grupos de varones, por una parte, y los distintos grupos de mujeres por otra. También se han encontrado diferencias significativas al comparar varones y mujeres en cada uno de los cursos de Bachillerato. Existencia de ítems para los que existía diferencia significativa entre sexos en primer curso, pero no se mantenía en segundo ni tercero. Otras veces las diferencias significativas aparecían en segundo curso, y otras en tercero.
Resumo:
Esta investigación toma como marco general la Política de Reintegración Social y económica de personas y grupos alzados en armas en Colombia, en donde tras el estudio de las trayectorias en el conflicto de un grupo de 9 excombatientes, se aborda la relación existente entre los beneficios otorgados por dicha política y aquello que facilitó y motivó el ingreso, la permanencia y desmovilización de los grupos armados. Se presenta una caracterización e interpretación conceptual de las denominadas trayectorias en el conflicto, son establecidas relaciones y diferencias entre las organizaciones ilegales FARC y las AUC, se revisan las percepciones que frente a los beneficios del programa de reintegración tienen excombatientes y profesionales de la entidad que lidera dicho proceso y a partir de ello, es argumentada la incidencia que sobre el éxito de esta política tienen las características individuales y particulares, tanto de los excombatientes como de las organizaciones armadas ilegales.
Resumo:
Resumen basado en el de la publicaci??n
Resumo:
It is becoming increasingly important to be able to verify the spatial accuracy of precipitation forecasts, especially with the advent of high-resolution numerical weather prediction (NWP) models. In this article, the fractions skill score (FSS) approach has been used to perform a scale-selective evaluation of precipitation forecasts during 2003 from the Met Office mesoscale model (12 km grid length). The investigation shows how skill varies with spatial scale, the scales over which the data assimilation (DA) adds most skill, and how the loss of that skill is dependent on both the spatial scale and the rainfall coverage being examined. Although these results come from a specific model, they demonstrate how this verification approach can provide a quantitative assessment of the spatial behaviour of new finer-resolution models and DA techniques.
Resumo:
With movement toward kilometer-scale ensembles, new techniques are needed for their characterization. A new methodology is presented for detailed spatial ensemble characterization using the fractions skill score (FSS). To evaluate spatial forecast differences, the average and standard deviation are taken of the FSS calculated over all ensemble member–member pairs at different scales and lead times. These methods were found to give important information about the ensemble behavior allowing the identification of useful spatial scales, spinup times for the model, and upscale growth of errors and forecast differences. The ensemble spread was found to be highly dependent on the spatial scales considered and the threshold applied to the field. High thresholds picked out localized and intense values that gave large temporal variability in ensemble spread: local processes and undersampling dominate for these thresholds. For lower thresholds the ensemble spread increases with time as differences between the ensemble members upscale. Two convective cases were investigated based on the Met Office United Model run at 2.2-km resolution. Different ensemble types were considered: ensembles produced using the Met Office Global and Regional Ensemble Prediction System (MOGREPS) and an ensemble produced using different model physics configurations. Comparison of the MOGREPS and multiphysics ensembles demonstrated the utility of spatial ensemble evaluation techniques for assessing the impact of different perturbation strategies and the need for assessing spread at different, believable, spatial scales.
Resumo:
The decision to close airspace in the event of a volcanic eruption is based on hazard maps of predicted ash extent. These are produced using output from volcanic ash transport and dispersion (VATD)models. In this paper an objectivemetric to evaluate the spatial accuracy of VATD simulations relative to satellite retrievals of volcanic ash is presented. The 5 metric is based on the fractions skill score (FSS). Thismeasure of skill provides more information than traditional point-bypoint metrics, such as success index and Pearson correlation coefficient, as it takes into the account spatial scale overwhich skill is being assessed. The FSS determines the scale overwhich a simulation has skill and can differentiate between a "near miss" and a forecast that is badly misplaced. The 10 idealised scenarios presented show that even simulations with considerable displacement errors have useful skill when evaluated over neighbourhood scales of 200–700km2. This method could be used to compare forecasts produced by different VATDs or using different model parameters, assess the impact of assimilating satellite retrieved ash data and evaluate VATD forecasts over a long time period.
Resumo:
In order to increase overall transparency on key operational information, power transmission system operators publish an increasing amount of fundamental data, including forecasts of electricity demand and available capacity. We employ a fundamental model for electricity prices which lends itself well to integrating such forecasts, while retaining ease of implementation and tractability to allow for analytic derivatives pricing formulae. In an extensive futures pricing study, the pricing performance of our model is shown to further improve based on the inclusion of electricity demand and capacity forecasts, thus confirming the general importance of forward-looking information for electricity derivatives pricing. However, we also find that the usefulness of integrating forecast data into the pricing approach is primarily limited to those periods during which electricity prices are highly sensitive to demand or available capacity, whereas the impact is less visible when fuel prices are the primary underlying driver to prices instead.
Resumo:
The focus of this thesis is to discuss the development and modeling of an interface architecture to be employed for interfacing analog signals in mixed-signal SOC. We claim that the approach that is going to be presented is able to achieve wide frequency range, and covers a large range of applications with constant performance, allied to digital configuration compatibility. Our primary assumptions are to use a fixed analog block and to promote application configurability in the digital domain, which leads to a mixed-signal interface. The use of a fixed analog block avoids the performance loss common to configurable analog blocks. The usage of configurability on the digital domain makes possible the use of all existing tools for high level design, simulation and synthesis to implement the target application, with very good performance prediction. The proposed approach utilizes the concept of frequency translation (mixing) of the input signal followed by its conversion to the ΣΔ domain, which makes possible the use of a fairly constant analog block, and also, a uniform treatment of input signal from DC to high frequencies. The programmability is performed in the ΣΔ digital domain where performance can be closely achieved according to application specification. The interface performance theoretical and simulation model are developed for design space exploration and for physical design support. Two prototypes are built and characterized to validate the proposed model and to implement some application examples. The usage of this interface as a multi-band parametric ADC and as a two channels analog multiplier and adder are shown. The multi-channel analog interface architecture is also presented. The characterization measurements support the main advantages of the approach proposed.
Resumo:
As modernas aplicações em diversas áreas como multimídia e telecomunicações exigem arquiteturas que ofereçam altas taxas de processamento. Entretanto, os padrões e algoritmos mudam com incrível rapidez o que gera a necessidade de que esses sistemas digitais tenham também por característica uma grande flexibilidade. Dentro desse contexto, tem-se as arquiteturas reconfiguráveis em geral e, mais recentemente, os sistemas reconfiguráveis em um único chip como soluções adequadas que podem oferecer desempenho, sendo, ao mesmo tempo, adaptáveis a novos problemas e a classes mais amplas de algoritmos dentro de um dado escopo de aplicação. Este trabalho apresenta o estado-da-arte em relação a arquiteturas reconfiguráveis nos meios acadêmcio e industrial e descreve todas as etapas de desenvolvimento do processador de imagens reconfigurável DRIP (Dynamically Reconfigurable Image Processor), desde suas origens como um processador estático até sua última versão reconfigurável em tempo de execução. O DRIP possui um pipeline composto por 81 processadores elementares. Esses processadores constituem a chave do processo de reconfiguração e possuem a capacidade de computar um grande número de algoritmos de processamento de imagens, mais específicamente dentro do domínio da filtragem digital de imagens. Durante o projeto, foram desenvolvidos uma série de modelos em linguagem de descrição de hardware da arquitetura e também ferramentas de software para auxiliar nos processos de implementação de novos algorimos, geração automática de modelos VHDL e validação das implementações. O desenvolvimento de mecanismos com o objetivo de incluir a possibilidade de reconfiguração dinâmica, naturalmente, introduz overheads na arquitetura. Contudo, o processo de reconfiguração do DRIP-RTR é da ordem de milhões de vezes mais rápido do que na versão estaticamente reconfigurável implementada em FPGAs Altera. Finalizando este trabalho, é apresentado o projeto lógico e elétrico do processador elementar do DRIP, visando uma futura implementação do sistema diretamente como um circuito VLSI.
Resumo:
Sistemas computacionais de tempo-real são tipicamente construídos a partir de primitivas de sincronização que fornecem uma noção do tempo no objetivo de coordenar a execução múltiplos fluxos de instruções em um processador. Quando o processamento é centralizado, a base de tempo destas primitivas é extraída do oscilador local da plataforma, permitindo que as ações do sistema sejam devidamente ordenadas, respeitando restrições de tempo e causalidade. No entanto, em sistemas distribuídos o problema não pode ser resolvido desta forma em decorrência de imperfeições nos dispositivos físicos. Diferenças mínimas na freqüência de osciladores fazem com que as bases de tempo dos componentes divirjam cada vez mais ao longo do tempo, dificultando ou até mesmo impossibilitando um ordenamento consistente de eventos. Por esta razão, sincronização de relógios é um serviço de fundamental importância, sobretudo em aplicações críticas, onde os níveis de confiabilidade exigidos são mais elevados. O presente trabalho consiste na proposta e implementação de uma plataforma de comunicação otimizada para sistemas de controle distribuídos, caracterizados por uma alta regularidade no comportamento da comunicação. O objetivo é propor uma solução em baixo nível com suporte para o projeto de sistemas distribuídos no domínio de aplicações críticas. A plataforma proposta, à qual foi atribuído o nome CASCA, sigla para “Communication Architecture for Safety- Critical Applications”, é de fato uma extensão time-triggered do protocolo CAN. Acima da camada de enlace do protocolo original foram projetados mecanismos sincronização de relógios e criação inicial da base de tempo, implementados na forma de uma combinação de hardware e software. Principais características da plataforma são jitter mínimo, uma base de tempo global essencialmente distribuída e particionamento temporal. Diferentes alternativas de projeto foram consideradas, observando com maior atenção a viabilidade de prototipação em dispositivos FPGA para fins de validação e aplicação imediata em plataformas reconfiguráveis. Como forma de validação da plataforma, um sistema elementar formado por três nodos foi sintetizado com sucesso em bancada obtendo-se como resultado uma base de tempo essencialmente distribuída com precisão menor do que um micro-segundo.
Resumo:
O material apresenta políticas de escalonamento de processos e threads. O escalonamento de processos (ou Escalonamento do processador) trata da decisão sobre qual processo será executado em um determinado instante e por qual processador. O material apresenta também algoritmos de escalonamento relevantes, incluindo exemplos de algoritmos preemptivos e não-preemptivos, objetivos e critérios do escalonamento e diferentes tipos de escalonamentos: Escalonamento FIFO (first-in first-out), Escalonamento circular RR (Round-Robin ), Escalonamento SPF (Shortest Process First), Escalonamento SRT (Shortest Remaining Time), Escalonamento FSS (Fair Share Scheduling), Escalonamento de tempo real, Escalonamento de threads Java – JVM, Escalonamento no Windows XP e UNIX.
Resumo:
A videoaula apresenta o escalonamento de processos, com foco para as políticas de escalonamento do processador. Destaca o escalonamento com prioridades (estática ou dinâmica), o funcionamento do escalonamento de threads em Java, os níveis de escalonamento (alto nível, nível intermediário, baixo nível) e os critérios que são levados em conta pelo algoritmo de escalonamento. Apresenta também os objetivos e critérios do escalonamento e seus seguintes tipos: Escalonamento FIFO (first-in first-out), Escalonamento circular RR (Round-Robin ), Escalonamento SPF (Shortest Process First), Escalonamento SRT (Shortest Remaining Time), Escalonamento FSS (Fair Share Scheduling) - Escalonamento por fração justa, Escalonamento de tempo real, Escalonamento de threads Java – JVM, Escalonamento no Windows XP e UNIX.
Resumo:
The bidimensional periodic structures called frequency selective surfaces have been well investigated because of their filtering properties. Similar to the filters that work at the traditional radiofrequency band, such structures can behave as band-stop or pass-band filters, depending on the elements of the array (patch or aperture, respectively) and can be used for a variety of applications, such as: radomes, dichroic reflectors, waveguide filters, artificial magnetic conductors, microwave absorbers etc. To provide high-performance filtering properties at microwave bands, electromagnetic engineers have investigated various types of periodic structures: reconfigurable frequency selective screens, multilayered selective filters, as well as periodic arrays printed on anisotropic dielectric substrates and composed by fractal elements. In general, there is no closed form solution directly from a given desired frequency response to a corresponding device; thus, the analysis of its scattering characteristics requires the application of rigorous full-wave techniques. Besides that, due to the computational complexity of using a full-wave simulator to evaluate the frequency selective surface scattering variables, many electromagnetic engineers still use trial-and-error process until to achieve a given design criterion. As this procedure is very laborious and human dependent, optimization techniques are required to design practical periodic structures with desired filter specifications. Some authors have been employed neural networks and natural optimization algorithms, such as the genetic algorithms and the particle swarm optimization for the frequency selective surface design and optimization. This work has as objective the accomplishment of a rigorous study about the electromagnetic behavior of the periodic structures, enabling the design of efficient devices applied to microwave band. For this, artificial neural networks are used together with natural optimization techniques, allowing the accurate and efficient investigation of various types of frequency selective surfaces, in a simple and fast manner, becoming a powerful tool for the design and optimization of such structures