998 resultados para variable-stepsize implementation


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Essai doctoral présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Doctorat (D.Psy) en psychologie option psychologie clinique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La sélénocystéine est le 21e acide aminé encodé génétiquement et on la retrouve à travers les trois domaines de la vie. Elle est synthétisée sur l'ARNtSec par un processus unique. L'ARNtSec se distingue également au niveau structural. La tige acceptrice possède 8 (procaryotes) et 9 (eucaryotes) paires de bases, contrairement aux ARNt canoniques qui ont invariablement 7 paires de bases dans la tige acceptrice. De plus, la tige D a 2 paires de bases additionnelles qui remplacent les interactions tertiaires universelles 8-14, 15-48 qui sont absentes chez l'ARNtSec. D'autre part, la longueur de la boucle variable de l'ARNtSec est plus longue que la majorité des ARNt de type II. Dans ce mémoire, on se concentre sur la région de la boucle variable de l'ARNtSec . La recherche consiste à distinguer les paires de bases de la boucle variable qui sont essentielles à la biosynthèse et l’insertion de la sélénocystéine. De plus, on regarde si la paire de base additionnelle de la tige acceptrice de l'ARNtSec (procaryote) est essentielle pour l'insertion de la sélénocystéine. Pour répondre à ces questions, on a utilisé l'approche expérimentale Évolution Instantanée qui consiste au criblage in vivo d'ARNtSec fonctionnels chez E. coli. Dans ce travail, on montre que l'insertion de la sélénocystéine ne nécessite pas une spécificité de la longueur ou de la séquence de l'ARNtSec. On montre aussi que ni la longueur de la tige acceptrice ou du domaine tige acceptrice/tige T n'est essentielle pour avoir un ARNtSec fonctionnel.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Notre mémoire a pour objectif d’étudier l’impact différencié de la rémunération variable individuelle et collective sur l’intention de rester. De plus, nous nous intéressons au rôle de l’engagement organisationnel dans la relation entre la rémunération variable et l’intention de rester. Pour ce faire, nous avons formulé quatre hypothèses basées sur la littérature et certaines théories. La première hypothèse avance que la rémunération variable individuelle fait accroître l’intention de rester des travailleurs. La deuxième stipule que la rémunération variable collective fait accroître l’intention de rester. La troisième indique que la rémunération variable individuelle fait accroître davantage l’intention de rester que la rémunération variable collective sur l’intention de rester. Enfin, la quatrième hypothèse suggère que l’engagement organisationnel agit à titre de variable médiatrice dans la relation entre la rémunération variable et l’intention de rester. Notre étude s’appuie sur des données longitudinales colligées dans le cadre d’une enquête portant sur « les liens entre la rémunération, la formation et le développement des compétences avec l’attraction et la rétention des employés clés ». L’enquête a été réalisée auprès de nouveaux travailleurs d’une entreprise internationale du secteur des technologies de l’information et des communications (TIC) à Montréal. Les données ont été colligées en trois temps entre le 1er avril 2009 et le 30 septembre 2010. Nos résultats soutiennent qu’effectivement la rémunération variable individuelle et collective font augmenter l’intention de rester des travailleurs. De plus, nous trouvons que la rémunération variable individuelle et la rémunération variable collective ont un impact équivalent sur l’intention de rester. Enfin, bien que l’engagement organisationnel soit un prédicteur important de l’intention de rester, celui-ci n’agit pas à titre de variable médiatrice dans la relation entre la rémunération variable et l’intention de rester. Finalement, notre étude permet d’élaborer certaines pistes pour améliorer l’intention de rester des travailleurs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’annonce d’un diagnostic de cancer provoque souvent une forte réaction émotionnelle et un stress important tant chez les adultes que chez les adolescents et leurs parents. Certains d’entre eux cherchant à soulager cette détresse se tournent vers des méthodes alternatives positives de gestion de stress, dans le but d’atténuer les effets psychologiques indésirables du cancer. Les thérapies ciblant à la fois le corps et l’esprit gagnent en popularité dans ces populations. Une avenue prometteuse est la méditation de pleine conscience (MPC), inspirée de la philosophie bouddhiste et adaptée dans le cadre d’interventions thérapeutiques pour améliorer la qualité de vie des patients souffrant de maladies chroniques. À ce jour, des études dans le domaine de la santé ont suggéré que la MPC pouvait avoir des effets bénéfiques sur les symptômes et la gestion de plusieurs maladies chroniques dont le cancer, faisant d’elle une avenue thérapeutique intéressante dans le traitement des effets psychologiques indésirables liés à ces maladies. La recherche émergente en pédiatrie suggère des effets comparables chez les enfants et adolescents. L’objectif de la présente thèse a été de développer un essai clinique randomisé visant à évaluer les effets de la MPC sur la qualité de vie, le sommeil et l’humeur chez des adolescents atteints de cancer, en documentant les étapes d’implantation du projet, les embuches qui ont été rencontrées durant son implantation et les résultats obtenus. La thèse est présentée sous la forme de deux articles scientifiques. Le premier article présente la méthodologie qui avait été planifiée pour ce projet mais qui n’a pu être réalisée en raison d’embuches rencontrées dans la complétion de ce pilote. Ainsi, les étapes préliminaires du développement de ce projet de recherche, en accordant une place prépondérante au manuel d’intervention rédigé à cette fin. La mise en place et la structure de ce projet, nommément le devis méthodologique employé, la taille d’échantillon visée, les méthodes de recrutement mises en place et les stratégies de randomisation prévues, sont décrites en détail dans cet article. Pour les fins de ce projet, un manuel d’intervention de MPC a été rédigé. L’intervention en MPC, menée par deux instructeurs formés en MPC, s’est échelonnée sur une durée de huit semaines, à raison d’une séance d’une heure trente par semaine. Une description détaillée de chaque séance est incluse dans cet article, dans un but de dissémination du protocole de recherche. Des analyses intragroupe serviront à évaluer l’impact de l’intervention en méditation de pleine conscience sur la qualité de vie, le sommeil et l’humeur pré-à-post intervention et au suivi à six mois. Des analyses intergroupes prévues sont décrites afin de comparer les effets de l’intervention entre les participants du groupe contrôle et du groupe expérimental. Les limites potentielles de ce projet, notamment la participation volontaire, le risque d’attrition et la petite taille d’échantillon sont décrites en détail dans cet article. Le deuxième article présente, dans un premier temps, le déroulement du projet de recherche, en mettant en lumière les embuches rencontrées dans son implantation. Ainsi, les leçons à tirer de l’implantation d’un tel essai clinique en milieu hospitalier au Québec sont décrites selon trois axes : 1) les défis liés au recrutement et à la rétention des participants; 2) l’acceptabilité et la compréhensibilité de l’intervention en pleine conscience; et 3) le moment où l’intervention s’est déroulée (timing) et l’impact sur l’engagement requis des participants dans le projet. Durant une période de recrutement de neuf mois, 481 participants potentiels ont été filtrés. 418 (86,9 %) d’entre eux ont été exclus. 63 participants potentiels, vivant à moins d’une heure de Montréal, ont été approchés pour prendre part à ce projet. De ce nombre, seulement 7 participants (1,4%) ont accepté de participer aux rencontres de MPC et de compléter les mesures pré-post intervention. Un bassin d’éligibilité réduit, ainsi que des taux de refus élevés et des conflits d’horaire avec les activités scolaires ont eu un impact considérable sur la taille d’échantillon de ce projet et sur l’absentéisme des participants. Malgré l’intérêt manifeste des équipes médicales pour la recherche psychosociale, les ressources requises pour mener à terme de tels essais cliniques sont trop souvent sous- estimées. Les stratégies de recrutement et de rétention des participants méritent une attention spéciale des chercheurs dans ce domaine. Dans un deuxième temps, le deuxième article de cette thèse a pour objectif de présenter les résultats de l’intervention en MPC chez des jeunes ayant le cancer, en examinant spécifiquement l’impact de l’intervention sur la qualité de vie, le sommeil et l’humeur des jeunes pré-post intervention et lors du suivi à six mois. Faisant écho aux embuches décrites préalablement décrites, les analyses statistiques n’ont permis de déceler aucun effet statistiquement significatif de notre intervention. Aucune différence significative n’est notée entre les participants du groupe expérimental et les participants du groupe contrôle. Les difficultés rencontrées dans de la complétion des devoirs et de la pratique de techniques de méditation entre les séances, décrites en détail cet article, expliquent en partie ces résultats. Globalement, le contexte développemental spécifique à l’adolescence, ayant possiblement eu un impact sur l’adhérence des participants à la thérapie proposée et à leur motivation à prendre part aux rencontres, les scores sous-cliniques lors du premier temps de mesure, l’impact du soutien social inhérent au contexte de thérapie de groupe, ainsi que les caractéristiques personnelles des thérapeutes, pourraient avoir influencé les résultats de ce pilote. Les résultats de ce projet pilote nous laissent croire que la prudence est de mise dans la généralisation des bienfaits et de l’efficacité de la pleine conscience observés chez les adultes atteints de cancer dans son application aux adolescents en oncologie. En conclusion, la présente thèse contribue à enrichir la recherche dans le domaine de la MPC chez les jeunes en questionnant néanmoins la pertinence d’une telle intervention auprès d’une population d’adolescents souffrant de cancer. Ainsi, il convient d’analyser les résultats obtenus en tenant compte des limites méthodologiques de ce projet et de poser un regard critique sur la faisabilité et la reproductibilité d’un projet d’une telle envergure auprès d’une même population. Les leçons tirées de l’implantation d’un tel projet en milieu hospitalier pédiatrique se sont avérées d’une importance centrale dans sa complétion et feront partie intégrante de toute tentative de réplication. D’autres essais cliniques de cette nature seront inévitablement requis afin de statuer sur l’efficacité de la MPC chez des adolescents atteints cancer et sur la faisabilité de l’implantation de cette méthode d’intervention auprès d’une population pédiatrique hospitalière.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Chapter 1 presents a brief note on the state at which the construction industry stands at present, bringing into focus the significance of the critical study. Relevance of the study, area of investigation and objectives of the study are outlined in this chapter. The 2nd chapter presents a review of the literature on the relevant areas. In the third chapter an analysis on time and cost overrun in construction highlighting the major factors responsible for it has been done. A couple of case studies to estimate loss to the nation on account of delay in construction have been presented in the chapter. The need for an appropriate estimate and a competent contractor has been emphasised for improving effectiveness in the project implementation. Certain useful equations and thoughts have been formulated on this area in this chapter that can be followed in State PWD and other Govt. organisations. Case studies on project implementation of major projects undertaken by Government sponsored/supported organizations in Kerala have been dealt with in Chapter 4. A detailed description of the project of Kerala Legislature Complex with a critical analysis has been given in this chapter. A detailed account of the investigations carried out on the construction of International Stadium, a sports project of Greater Cochin Development Authority is included here. The project details of Cochin International Airport at Nedumbassery, its promoters and contractors are also discussed in Chapter 4. Various aspects of implementation which led the above projects successful have been discussed in chapter 5. The data collected were analysed through discussion and perceptions to arrive at certain conclusions. The emergence of front-loaded contract and its impact on economics of the project execution are dealt with in this chapter. Analysis of delays in respect of the various project narrated in chapter 3 has been done here. The root causes of the project time and overrun and its remedial measures are also enlisted in this chapter. Study of cost and time overrun of any construction project IS a part of construction management. Under the present environment of heavy investment on construction activities in India, the consequences of mismanagement many a time lead to excessive expenditure which are not be avoidable. Cost consciousness, therefore has to be keener than ever before. Optimization in investment can be achieved by improved dynamism in construction management. The successful completion of coristruction projects within the specified programme, optimizing three major attributes of the process - quality, schedule and costs - has become the most valuable and challenging task for the engineer - managers to perform. So, the various aspects of construction management such as cost control, schedule control, quality assurance, management techniques etc. have also been discussed in this fifth chapter. Chapter 6 summarises the conclusions drawn from the above criticalr1 of rhajor construction projects in Kerala.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In a sigma-delta analog to digital (A/D) As most of the sigma-delta ADC applications require converter, the most computationally intensive block is decimation filters with linear phase characteristics, the decimation filter and its hardware implementation symmetric Finite Impulse Response (FIR) filters are may require millions of transistors. Since these widely used for implementation. But the number of FIR converters are now targeted for a portable application, filter coefficients will be quite large for implementing a a hardware efficient design is an implicit requirement. narrow band decimation filter. Implementing decimation In this effect, this paper presents a computationally filter in several stages reduces the total number of filter efficient polyphase implementation of non-recursive coefficients, and hence reduces the hardware complexity cascaded integrator comb (CIC) decimators for and power consumption [2]. Sigma-Delta Converters (SDCs). The SDCs are The first stage of decimation filter can be operating at high oversampling frequencies and hence implemented very efficiently using a cascade of integrators require large sampling rate conversions. The filtering and comb filters which do not require multiplication or and rate reduction are performed in several stages to coefficient storage. The remaining filtering is performed reduce hardware complexity and power dissipation. either in single stage or in two stages with more complex The CIC filters are widely adopted as the first stage of FIR or infinite impulse response (IIR) filters according to decimation due to its multiplier free structure. In this the requirements. The amount of passband aliasing or research, the performance of polyphase structure is imaging error can be brought within prescribed bounds by compared with the CICs using recursive and increasing the number of stages in the CIC filter. The non-recursive algorithms in terms of power, speed and width of the passband and the frequency characteristics area. This polyphase implementation offers high speed outside the passband are severely limited. So, CIC filters operation and low power consumption. The polyphase are used to make the transition between high and low implementation of 4th order CIC filter with a sampling rates. Conventional filters operating at low decimation factor of '64' and input word length of sampling rate are used to attain the required transition '4-bits' offers about 70% and 37% of power saving bandwidth and stopband attenuation. compared to the corresponding recursive and Several papers are available in literature that deals non-recursive implementations respectively. The same with different implementations of decimation filter polyphase CIC filter can operate about 7 times faster architecture for sigma-delta ADCs. Hogenauer has than the recursive and about 3.7 times faster than the described the design procedures for decimation and non-recursive CIC filters.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Reversibility plays a fundamental role when logic gates such as AND, OR, and XOR are not reversible. computations with minimal energy dissipation are considered. Hence, these gates dissipate heat and may reduce the life of In recent years, reversible logic has emerged as one of the most the circuit. So, reversible logic is in demand in power aware important approaches for power optimization with its circuits. application in low power CMOS, quantum computing and A reversible conventional BCD adder was proposed in using conventional reversible gates.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Extending IPv6 to IEEE 802.15.4-based Low power Wireless Personal Area Networks requires efficient header compression mechanisms to adapt to their limited bandwidth, memory and energy constraints. This paper presents an experimental evaluation of an improved header compression scheme which provides better compression of IPv6 multicast addresses and UDP port numbers compared to existing mechanisms. This scheme outperforms the existing compression mechanism in terms of data throughput of the network and energy consumption of nodes. It enhances throughput by up to 8% and reduces transmission energy of nodes by about 5%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper aims to highlight the difficulties faced by organizations in implementing Total Productive Maintenance (TPM). The authors with their experience in TPM and the refinery industry have attempted to understand the factors that hinder implementation of TPM. The paper first explains in brief the concepts of TPM and why TPM is a must for organizations in this complex dynamic business environment. It then takes up the various issues that hamper implementation of TPM in industries. Solutions to overcome the barriers are discussed briefly but will be taken up in detail in another paper with specific reference to refinery scenario

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The paper investigates the feasibility of implementing an intelligent classifier for noise sources in the ocean, with the help of artificial neural networks, using higher order spectral features. Non-linear interactions between the component frequencies of the noise data can give rise to certain phase relations called Quadratic Phase Coupling (QPC), which cannot be characterized by power spectral analysis. However, bispectral analysis, which is a higher order estimation technique, can reveal the presence of such phase couplings and provide a measure to quantify such couplings. A feed forward neural network has been trained and validated with higher order spectral features

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Study on variable stars is an important topic of modern astrophysics. After the invention of powerful telescopes and high resolving powered CCD’s, the variable star data is accumulating in the order of peta-bytes. The huge amount of data need lot of automated methods as well as human experts. This thesis is devoted to the data analysis on variable star’s astronomical time series data and hence belong to the inter-disciplinary topic, Astrostatistics. For an observer on earth, stars that have a change in apparent brightness over time are called variable stars. The variation in brightness may be regular (periodic), quasi periodic (semi-periodic) or irregular manner (aperiodic) and are caused by various reasons. In some cases, the variation is due to some internal thermo-nuclear processes, which are generally known as intrinsic vari- ables and in some other cases, it is due to some external processes, like eclipse or rotation, which are known as extrinsic variables. Intrinsic variables can be further grouped into pulsating variables, eruptive variables and flare stars. Extrinsic variables are grouped into eclipsing binary stars and chromospheri- cal stars. Pulsating variables can again classified into Cepheid, RR Lyrae, RV Tauri, Delta Scuti, Mira etc. The eruptive or cataclysmic variables are novae, supernovae, etc., which rarely occurs and are not periodic phenomena. Most of the other variations are periodic in nature. Variable stars can be observed through many ways such as photometry, spectrophotometry and spectroscopy. The sequence of photometric observa- xiv tions on variable stars produces time series data, which contains time, magni- tude and error. The plot between variable star’s apparent magnitude and time are known as light curve. If the time series data is folded on a period, the plot between apparent magnitude and phase is known as phased light curve. The unique shape of phased light curve is a characteristic of each type of variable star. One way to identify the type of variable star and to classify them is by visually looking at the phased light curve by an expert. For last several years, automated algorithms are used to classify a group of variable stars, with the help of computers. Research on variable stars can be divided into different stages like observa- tion, data reduction, data analysis, modeling and classification. The modeling on variable stars helps to determine the short-term and long-term behaviour and to construct theoretical models (for eg:- Wilson-Devinney model for eclips- ing binaries) and to derive stellar properties like mass, radius, luminosity, tem- perature, internal and external structure, chemical composition and evolution. The classification requires the determination of the basic parameters like pe- riod, amplitude and phase and also some other derived parameters. Out of these, period is the most important parameter since the wrong periods can lead to sparse light curves and misleading information. Time series analysis is a method of applying mathematical and statistical tests to data, to quantify the variation, understand the nature of time-varying phenomena, to gain physical understanding of the system and to predict future behavior of the system. Astronomical time series usually suffer from unevenly spaced time instants, varying error conditions and possibility of big gaps. This is due to daily varying daylight and the weather conditions for ground based observations and observations from space may suffer from the impact of cosmic ray particles. Many large scale astronomical surveys such as MACHO, OGLE, EROS, xv ROTSE, PLANET, Hipparcos, MISAO, NSVS, ASAS, Pan-STARRS, Ke- pler,ESA, Gaia, LSST, CRTS provide variable star’s time series data, even though their primary intention is not variable star observation. Center for Astrostatistics, Pennsylvania State University is established to help the astro- nomical community with the aid of statistical tools for harvesting and analysing archival data. Most of these surveys releases the data to the public for further analysis. There exist many period search algorithms through astronomical time se- ries analysis, which can be classified into parametric (assume some underlying distribution for data) and non-parametric (do not assume any statistical model like Gaussian etc.,) methods. Many of the parametric methods are based on variations of discrete Fourier transforms like Generalised Lomb-Scargle peri- odogram (GLSP) by Zechmeister(2009), Significant Spectrum (SigSpec) by Reegen(2007) etc. Non-parametric methods include Phase Dispersion Minimi- sation (PDM) by Stellingwerf(1978) and Cubic spline method by Akerlof(1994) etc. Even though most of the methods can be brought under automation, any of the method stated above could not fully recover the true periods. The wrong detection of period can be due to several reasons such as power leakage to other frequencies which is due to finite total interval, finite sampling interval and finite amount of data. Another problem is aliasing, which is due to the influence of regular sampling. Also spurious periods appear due to long gaps and power flow to harmonic frequencies is an inherent problem of Fourier methods. Hence obtaining the exact period of variable star from it’s time series data is still a difficult problem, in case of huge databases, when subjected to automation. As Matthew Templeton, AAVSO, states “Variable star data analysis is not always straightforward; large-scale, automated analysis design is non-trivial”. Derekas et al. 2007, Deb et.al. 2010 states “The processing of xvi huge amount of data in these databases is quite challenging, even when looking at seemingly small issues such as period determination and classification”. It will be beneficial for the variable star astronomical community, if basic parameters, such as period, amplitude and phase are obtained more accurately, when huge time series databases are subjected to automation. In the present thesis work, the theories of four popular period search methods are studied, the strength and weakness of these methods are evaluated by applying it on two survey databases and finally a modified form of cubic spline method is intro- duced to confirm the exact period of variable star. For the classification of new variable stars discovered and entering them in the “General Catalogue of Vari- able Stars” or other databases like “Variable Star Index“, the characteristics of the variability has to be quantified in term of variable star parameters.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In dieser Arbeit wurde ein räumlich bewegter pneumatischer Mehrachsenprüfstand als spezielle mechanische Variante eines Parallelroboters entwickelt, im Labor aufgebaut und in Rechnersimulationen sowie in Laborexperimenten regelungstechnisch untersucht. Für diesen speziellen Parallelroboter MAP-RTS-6 wurden Regelalgorithmen, die mittels moderner Verfahren der linearen und nichtlinearen Regelungstheorie abgeleitet wurden, hinsichtlich ihrer praktischen Anwendbarkeit, Echtzeitfähigkeit und Qualität entwickelt, implementiert und überprüft. Mit diesen Regelalgorithmen ist der MAP-RTS-6 in der Lage, große räumliche Transienten schnell und präzise nachzufahren. Der MAP-RTS-6 wird in erster Linie als räumlicher Bewegungsmanipulator für große nichtlineare Transienten (Translationen und Rotationen), als räumlicher Vibrationsprüfstand für starre und flexible Prüfkörper unterschiedlicher Konfigurationen und als Mechanismus für die Implementierung und experimentelle Überprüfung unterschiedlicher Regelungs- und Identifikationsalgorithmen und Sicherheitskonzepte verwendet. Die Voraussetzung zum Betrieb des Mehrachsenprüfstands für unterschiedliche redundante Antriebskonfigurationen mit sieben und acht Antrieben MAP-RTS-7 und MAP-RTS-8 wurde in dieser Arbeit geschaffen. Dazu zählen die konstruktive Vorbereitung der Prüfstandsmechanik und Pneumatik zum Anschluss weiterer Antriebe, die Vorbereitung zusätzlicher I/O-Schnittstellen zur Prüfstandselektronik und zum Regelungssystem und die Ableitung von Algorithmen zur analytischen Arbeitsraumüberwachung für redundante Antriebskonfigurationen mit sieben und acht Antrieben.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The rapid growth of the optical communication branches and the enormous demand for more bandwidth require novel networks such as dense wavelength division multiplexing (DWDM). These networks enable higher bitrate transmission using the existing optical fibers. Micromechanically tunable optical microcavity devices like VCSELs, Fabry-Pérot filters and photodetectors are core components of these novel DWDM systems. Several air-gap based tunable devices were successfully implemented in the last years. Even though these concepts are very promising, two main disadvantages are still remaining. On the one hand, the high fabrication and integration cost and on the other hand the undesired adverse buckling of the suspended membranes. This thesis addresses these two problems and consists of two main parts: • PECVD dielectric material investigation and stress control resulting in membranes shape engineering. • Implementation and characterization of novel tunable optical devices with tailored shapes of the suspended membranes. For this purposes, low-cost PECVD technology is investigated and developed in detail. The macro- and microstress of silicon nitride and silicon dioxide are controlled over a wide range. Furthermore, the effect of stress on the optical and mechanical properties of the suspended membranes and on the microcavities is evaluated. Various membrane shapes (concave, convex and planar) with several radii of curvature are fabricated. Using this resonator shape engineering, microcavity devices such as non tunable and tunable Fabry-Pérot filters, VCSELs and PIN photodetectors are succesfully implemented. The fabricated Fabry-Pérot filters cover a spectral range of over 200nm and show resonance linewidths down to 1.5nm. By varying the stress distribution across the vertical direction within a DBR, the shape and the radius of curvature of the top membrane are explicitely tailored. By adjusting the incoming light beam waist to the curvature, the fundamental resonant mode is supported and the higher order ones are suppressed. For instance, a tunable VCSEL with 26 nm tuning range, 400µW maximal output power, 47nm free spectral range and over 57dB side mode suppresion ratio (SMSR) is demonstrated. Other technologies, such as introducing light emitting organic materials in microcavities are also investigated.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die stereoskopische 3-D-Darstellung beruht auf der naturgetreuen Präsentation verschiedener Perspektiven für das rechte und linke Auge. Sie erlangt in der Medizin, der Architektur, im Design sowie bei Computerspielen und im Kino, zukünftig möglicherweise auch im Fernsehen, eine immer größere Bedeutung. 3-D-Displays dienen der zusätzlichen Wiedergabe der räumlichen Tiefe und lassen sich grob in die vier Gruppen Stereoskope und Head-mounted-Displays, Brillensysteme, autostereoskopische Displays sowie echte 3-D-Displays einteilen. Darunter besitzt der autostereoskopische Ansatz ohne Brillen, bei dem N≥2 Perspektiven genutzt werden, ein hohes Potenzial. Die beste Qualität in dieser Gruppe kann mit der Methode der Integral Photography, die sowohl horizontale als auch vertikale Parallaxe kodiert, erreicht werden. Allerdings ist das Verfahren sehr aufwendig und wird deshalb wenig genutzt. Den besten Kompromiss zwischen Leistung und Preis bieten präzise gefertigte Linsenrasterscheiben (LRS), die hinsichtlich Lichtausbeute und optischen Eigenschaften den bereits früher bekannten Barrieremasken überlegen sind. Insbesondere für die ergonomisch günstige Multiperspektiven-3-D-Darstellung wird eine hohe physikalische Monitorauflösung benötigt. Diese ist bei modernen TFT-Displays schon recht hoch. Eine weitere Verbesserung mit dem theoretischen Faktor drei erreicht man durch gezielte Ansteuerung der einzelnen, nebeneinander angeordneten Subpixel in den Farben Rot, Grün und Blau. Ermöglicht wird dies durch die um etwa eine Größenordnung geringere Farbauflösung des menschlichen visuellen Systems im Vergleich zur Helligkeitsauflösung. Somit gelingt die Implementierung einer Subpixel-Filterung, welche entsprechend den physiologischen Gegebenheiten mit dem in Luminanz und Chrominanz trennenden YUV-Farbmodell arbeitet. Weiterhin erweist sich eine Schrägstellung der Linsen im Verhältnis von 1:6 als günstig. Farbstörungen werden minimiert, und die Schärfe der Bilder wird durch eine weniger systematische Vergrößerung der technologisch unvermeidbaren Trennelemente zwischen den Subpixeln erhöht. Der Grad der Schrägstellung ist frei wählbar. In diesem Sinne ist die Filterung als adaptiv an den Neigungswinkel zu verstehen, obwohl dieser Wert für einen konkreten 3-D-Monitor eine Invariante darstellt. Die zu maximierende Zielgröße ist der Parameter Perspektiven-Pixel als Produkt aus Anzahl der Perspektiven N und der effektiven Auflösung pro Perspektive. Der Idealfall einer Verdreifachung wird praktisch nicht erreicht. Messungen mit Hilfe von Testbildern sowie Schrifterkennungstests lieferten einen Wert von knapp über 2. Dies ist trotzdem als eine signifikante Verbesserung der Qualität der 3-D-Darstellung anzusehen. In der Zukunft sind weitere Verbesserungen hinsichtlich der Zielgröße durch Nutzung neuer, feiner als TFT auflösender Technologien wie LCoS oder OLED zu erwarten. Eine Kombination mit der vorgeschlagenen Filtermethode wird natürlich weiterhin möglich und ggf. auch sinnvoll sein.

Relevância:

20.00% 20.00%

Publicador: