857 resultados para Facial Object Based Method


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The C/T-13910 mutation is the major factor responsible for the persistence of the lactase-phlorizin hydrolase (LCT) gene expression. Mutation G/A-22018 appears to be only in co-segregation with C/T-13910. The objective of the present study was to assess the presence of these two mutations in Brazilian individuals with and without lactose malabsorption diagnosed by the hydrogen breath test (HBT). Ten milk-tolerant and 10 milk-intolerant individuals underwent the HBT after oral ingestion of 50 g lactose (equivalent to 1 L of milk). Analyses for C/T-13910 and G/A-22018 mutations were performed using a PCR-based method. Primers were designed for this study based on the GenBank sequence. The CT/GA, CT/AA, and TT/AA genotypes (lactase persistence) were found in 10 individuals with negative HBT. The CC/GG genotype (lactase non-persistence) was found in 10 individuals, 9 of them with positive HBT results. There was a significant agreement between the presence of mutations in the LCT gene promoter and HBT results (kappa = -0.9, P < 0.001). The CT/AA genotype has not been described previously and seems to be related to lactase persistence. The present study showed a significant agreement between the occurrence of mutations G/A-22018 and C/T-13910 and lactose absorption in Brazilian subjects, suggesting that the molecular test used here could be proposed for the laboratory diagnosis of adult-type primary hypolactasia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Viime vuosien aikana palveluhankintojen suhteellinen osuus kaikista toteutetuista julkisista hankinnoista on kasvanut Suomessa huomattavasti. Samalla markkinaoikeudessa on käsitelty vuosittain suuri määrä erilaisiin julkisiin hankinta-asioihin liittyviä valituksia. Merkittävä valitusten määrä on seurausta siitä, että julkisissa hankintaprosesseissa tehdään paljon virheitä. Tarjouspyynnön laatiminen on tärkeä hankintaprosessin vaihe, johon hankintayksiköissä tulisi kalliit markkinaoikeuskäsittelyt välttääkseen riittävästi panostaa. Tämän tutkielman tavoitteena oli selvittää, mitkä asiat palveluhankintojen tarjouspyyntöjen laatimisessa tuottavat hankintayksiköille ongelmia. Lisäksi tarkoituksena oli pohtia sekä itse palvelun hankkijaan että julkisten hankintojen lainsäädäntöön liittyviä tekijöitä, joista ongelmat palveluhankintojen tarjouspyyntöjen laatimisessa mahdollisesti johtuvat. Tutkimuksessa tutkimuskohteena olivat 24 markkinaoikeuden vuosina 2012–2014 antamaa hankinta-asioiden ratkaisua, ja tutkimus toteutettiin kvalitatiivisena tutkimuksena tutkimusaineistoa kategorisoimalla ja yhdenmukaistamalla. Tutkielmassa havaittiin, että merkittävin kompastuskivi kansallisten palveluhankintojen tarjouspyyntöjen laatimisessa on tarjouksen vertailuperusteiden asettaminen. Erityisesti laadun vertailuperusteiden tulkinnanvarainen ja epäselvä esittäminen oli yleistä, ja lisäksi merkittävä määrä virheitä tehtiin sekoittamalla tarjoajan soveltuvuusvaatimukset vertailuperusteisiin. Joitakin virheitä tehtiin myös vertailuperusteiden tärkeysjärjestyksen ja suhteellisen painotuksen asettamisessa sekä hankinnan kohteen määrittelyssä. Tutkimustulosten perusteella pääteltiin, että kansallisten palveluhankintojen tarjouspyyntöjen laatimisen ongelmissa on suurimmassa osin kyse hankintayksikön vähäisistä resursseista ja siten heikosta hankintojen suunnittelusta sekä hankintayksiköiden ammattitaidon ja kokemuksen puutteista. Lisäksi joitakin esiintyneitä virheitä voidaan ainakin jossain määrin perustella hankintalainsäädännön monimutkaisuudella ja tulkinnanvaraisuudella.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pairs trading is an algorithmic trading strategy that is based on the historical co-movement of two separate assets and trades are executed on the basis of degree of relative mispricing. The purpose of this study is to explore one new and alternative copula-based method for pairs trading. The objective is to find out whether the copula method generates more trading opportunities and higher profits than the more traditional distance and cointegration methods applied extensively in previous empirical studies. Methods are compared by selecting top five pairs from stocks of the large and medium-sized companies in the Finnish stock market. The research period includes years 2006-2015. All the methods are proven to be profitable and the Finnish stock market suitable for pairs trading. However, copula method doesn’t generate more trading opportunities or higher profits than the other methods. It seems that the limitations of the more traditional methods are not too restrictive for this particular sample data.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Adenoviral vectors are currently the most widely used gene therapeutic vectors, but their inability to integrate into host chromosomal DNA shortened their transgene expression and limited their use in clinical trials. In this project, we initially planned to develop a technique to test the effect of the early region 1 (E1) on adenovirus integration by comparing the integration efficiencies between an E1-deleted adenoviral vector (SubE1) and an Elcontaining vector (SubE3). However, we did not harvest any SubE3 virus, even if we repeated the transfection and successfully rescued the SubE1 virus (2/4 transfections generated viruses) and positive control virus (6/6). The failure of rescuing SubE3 could be caused by the instability of the genomic plasmid pFG173, as it had frequent intemal deletions when we were purifying It. Therefore, we developed techniques to test the effect of E1 on homologous recombination (HR) since literature suggested that adenovirus integration is initiated by HR. We attempted to silence the E1 in 293 cells by transfecting E1A/B-specific small interfering RNA (siRNA). However, no silenced phenotype was observed, even if we varied the concentrations of E1A/B siRNA (from 30 nM to 270 nM) and checked the silencing effects at different time points (48, 72, 96 h). One possible explanation would be that the E1A/B siRNA sequences are not potent enough to Induce the silenced phenotype. For evaluating HR efficiencies, an HR assay system based on bacterial transfonmatJon was designed. We constmcted two plasmids ( designated as pUC19-dl1 and pUC19-dl2) containing different defective lacZa cassettes (forming white colonies after transformation) that can generate a functional lacZa cassette (forming blue colonies) through HR after transfecting into 293 cells. The HR efficiencies would be expressed as the percentages of the blue colonies among all the colonies. Unfortunately, after transfonnation of plasmid isolated from 293 cells, no colony was found, even at a transformation efficiency of 1.8x10^ colonies/pg pUC19, suggesting the sensitivity of this system was low. To enhance the sensitivity, PCR was used. We designed a set of primers that can only amplify the recombinant plasmid fomied through HR. Therefore, the HR efficiencies among different treatments can be evaluated by the amplification results, and this system could be used to test the effect of E1 region on adenovirus integration. In addition, to our knowledge there was no previous studies using PCR/ Realtime PCR to evaluate HR efficiency, so this system also provides a PCR-based method to carry out the HR assays.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Depuis quelques années, les statistiques indiquent une croissance exponentielle de l’incidence de certaines infections transmissibles sexuellement chez les jeunes adultes. Certaines enquêtes témoignent en outre des comportements peu responsables en matière de santé sexuelle chez cette population, bien que l’offre d’information sur les conséquences de tels comportements soit importante et diversifiée. Par ailleurs, le comportement informationnel de cette population en matière de santé sexuelle demeure peu documenté. La présente étude porte sur le comportement informationnel de jeunes adultes québécois en matière de santé sexuelle. Plus spécifiquement, elle répond aux quatre questions de recherche suivantes : (1) Quelles sont les situations problématiques auxquelles les jeunes adultes sont confrontés en santé sexuelle?, (2) Quels sont les besoins informationnels exprimés par les jeunes adultes lors de ces situations problématiques?, (3) Quels sont les processus et les sources d’information qui soutiennent la résolution de ces besoins informationnels? et (4) Quelle est l’utilisation de l’information trouvée? Cette recherche descriptive a utilisé une approche qualitative. Le milieu retenu est l’Université de Montréal pour deux raisons : il s’agit d’un milieu cognitivement riche qui fournit un accès sur place à des ressources en santé sexuelle. Les huit jeunes adultes âgés de 18 à 25 ans qui ont pris part à cette étude ont participé à une entrevue en profondeur utilisant la technique de l’incident critique. Chacun d’entre eux a décrit une situation problématique par rapport à sa santé sexuelle et les données recueillies ont été l’objet d’une analyse de contenu basée sur la théorisation ancrée. Les résultats indiquent que les jeunes adultes québécois vivent des situations problématiques relatives à l’aspect physique de leur santé sexuelle qui peuvent être déclenchées par trois types d’éléments : un événement à risques, un symptôme physique subjectif et de l’information acquise passivement. Ces situations problématiques génèrent trois catégories de besoins informationnels : l’état de santé actuel, les conséquences possibles et les remèdes. Pour répondre à ces besoins, les participants se sont tournés en majorité vers des sources professionnelles, personnelles et verbales. La présence de facteurs contextuels, cognitifs et affectifs a particularisé leur processus de recherche d’information en modifiant les combinaisons des quatre activités effectuées, soit débuter, enchaîner, butiner et différencier. L’automotivation et la compréhension du problème représentent les deux principales utilisations de l’information. D’un point de vue théorique, les résultats indiquent que le modèle général de comportement informationnel de Choo (2006), le modèle d’environnement d’utilisation de l’information de Taylor (1986, 1991) et le modèle d’activités de recherche d’information d’Ellis (1989a, 1989b, 2005) peuvent être utilisés dans le contexte personnel de la santé sexuelle. D’un point de vue pratique, cette étude ajoute aux connaissances sur les critères de sélection des sources d’information en matière de santé sexuelle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'hétérogénéité de réponses dans un groupe de patients soumis à un même régime thérapeutique doit être réduite au cours d'un traitement ou d'un essai clinique. Deux approches sont habituellement utilisées pour atteindre cet objectif. L'une vise essentiellement à construire une observance active. Cette approche se veut interactive et fondée sur l'échange ``médecin-patient '', ``pharmacien-patient'' ou ``vétérinaire-éleveurs''. L'autre plutôt passive et basée sur les caractéristiques du médicament, vise à contrôler en amont cette irrégularité. L'objectif principal de cette thèse était de développer de nouvelles stratégies d'évaluation et de contrôle de l'impact de l'irrégularité de la prise du médicament sur l'issue thérapeutique. Plus spécifiquement, le premier volet de cette recherche consistait à proposer des algorithmes mathématiques permettant d'estimer efficacement l'effet des médicaments dans un contexte de variabilité interindividuelle de profils pharmacocinétiques (PK). Cette nouvelle méthode est fondée sur l'utilisation concommitante de données \textit{in vitro} et \textit{in vivo}. Il s'agit de quantifier l'efficience ( c-à-dire efficacité plus fluctuation de concentrations \textit{in vivo}) de chaque profil PK en incorporant dans les modèles actuels d'estimation de l'efficacité \textit{in vivo}, la fonction qui relie la concentration du médicament de façon \textit{in vitro} à l'effet pharmacodynamique. Comparativement aux approches traditionnelles, cette combinaison de fonction capte de manière explicite la fluctuation des concentrations plasmatiques \textit{in vivo} due à la fonction dynamique de prise médicamenteuse. De plus, elle soulève, à travers quelques exemples, des questions sur la pertinence de l'utilisation des indices statiques traditionnels ($C_{max}$, $AUC$, etc.) d'efficacité comme outil de contrôle de l'antibiorésistance. Le deuxième volet de ce travail de doctorat était d'estimer les meilleurs temps d'échantillonnage sanguin dans une thérapie collective initiée chez les porcs. Pour ce faire, nous avons développé un modèle du comportement alimentaire collectif qui a été par la suite couplé à un modèle classique PK. À l'aide de ce modèle combiné, il a été possible de générer un profil PK typique à chaque stratégie alimentaire particulière. Les données ainsi générées, ont été utilisées pour estimer les temps d'échantillonnage appropriés afin de réduire les incertitudes dues à l'irrégularité de la prise médicamenteuse dans l'estimation des paramètres PK et PD . Parmi les algorithmes proposés à cet effet, la méthode des médianes semble donner des temps d'échantillonnage convenables à la fois pour l'employé et pour les animaux. Enfin, le dernier volet du projet de recherche a consisté à proposer une approche rationnelle de caractérisation et de classification des médicaments selon leur capacité à tolérer des oublis sporadiques. Méthodologiquement, nous avons, à travers une analyse globale de sensibilité, quantifié la corrélation entre les paramètres PK/PD d'un médicament et l'effet d'irrégularité de la prise médicamenteuse. Cette approche a consisté à évaluer de façon concomitante l'influence de tous les paramètres PK/PD et à prendre en compte, par la même occasion, les relations complexes pouvant exister entre ces différents paramètres. Cette étude a été réalisée pour les inhibiteurs calciques qui sont des antihypertenseurs agissant selon un modèle indirect d'effet. En prenant en compte les valeurs des corrélations ainsi calculées, nous avons estimé et proposé un indice comparatif propre à chaque médicament. Cet indice est apte à caractériser et à classer les médicaments agissant par un même mécanisme pharmacodynamique en terme d'indulgence à des oublis de prises médicamenteuses. Il a été appliqué à quatre inhibiteurs calciques. Les résultats obtenus étaient en accord avec les données expérimentales, traduisant ainsi la pertinence et la robustesse de cette nouvelle approche. Les stratégies développées dans ce projet de doctorat sont essentiellement fondées sur l'analyse des relations complexes entre l'histoire de la prise médicamenteuse, la pharmacocinétique et la pharmacodynamique. De cette analyse, elles sont capables d'évaluer et de contrôler l'impact de l'irrégularité de la prise médicamenteuse avec une précision acceptable. De façon générale, les algorithmes qui sous-tendent ces démarches constitueront sans aucun doute, des outils efficients dans le suivi et le traitement des patients. En outre, ils contribueront à contrôler les effets néfastes de la non-observance au traitement par la mise au point de médicaments indulgents aux oublis

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La liste des domaines touchés par l’apprentissage machine s’allonge rapidement. Au fur et à mesure que la quantité de données disponibles augmente, le développement d’algorithmes d’apprentissage de plus en plus puissants est crucial. Ce mémoire est constitué de trois parties: d’abord un survol des concepts de bases de l’apprentissage automatique et les détails nécessaires pour l’entraînement de réseaux de neurones, modèles qui se livrent bien à des architectures profondes. Ensuite, le premier article présente une application de l’apprentissage machine aux jeux vidéos, puis une méthode de mesure performance pour ceux-ci en tant que politique de décision. Finalement, le deuxième article présente des résultats théoriques concernant l’entraînement d’architectures profondes nonsupervisées. Les jeux vidéos sont un domaine particulièrement fertile pour l’apprentissage automatique: il estf facile d’accumuler d’importantes quantités de données, et les applications ne manquent pas. La formation d’équipes selon un critère donné est une tˆache commune pour les jeux en lignes. Le premier article compare différents algorithmes d’apprentissage à des réseaux de neurones profonds appliqués à la prédiction de la balance d’un match. Ensuite nous présentons une méthode par simulation pour évaluer les modèles ainsi obtenus utilisés dans le cadre d’une politique de décision en ligne. Dans un deuxième temps nous présentons une nouvelleméthode pour entraîner des modèles génératifs. Des résultats théoriques nous indiquent qu’il est possible d’entraîner par rétropropagation des modèles non-supervisés pouvant générer des échantillons qui suivent la distribution des données. Ceci est un résultat pertinent dans le cadre de la récente littérature scientifique investiguant les propriétés des autoencodeurs comme modèles génératifs. Ces résultats sont supportés avec des expériences qualitatives préliminaires ainsi que quelques résultats quantitatifs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette recherche porte un regard critique sur les interfaces de spatialisation sonore et positionne la composition de musique spatiale, un champ d’étude en musique, à l’avant plan d’une recherche en design. Il détaille l’approche de recherche qui est centrée sur le processus de composition de musique spatiale et les modèles mentaux de compositeurs électroacoustiques afin de livrer des recommandations de design pour le développement d’une interface de spatialisation musicale nommée Centor. Cette recherche montre qu’un processus de design mené à l’intersection du design d’interface, du design d’interaction et de la théorie musicale peut mener à une proposition pertinente et innovatrice pour chacun des domaines d’étude. Nous présentons la recherche et le développement du concept de spatialisation additive, une méthode de spatialisation sonore par patrons qui applique le vocabulaire spectromorphologique de Denis Smalley. C’est un concept d’outil de spatialisation pour le studio qui complémente les interfaces de composition actuelles et ouvre un nouveau champ de possibilités pour l’exploration spatiale en musique électroacoustique. La démarche de recherche présentée ici se veut une contribution au domaine du design d’interfaces musicales, spécifiquement les interfaces de spatialisation, mais propose aussi un processus de design pour la création d’interfaces numériques d’expression artistique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

For years, choosing the right career by monitoring the trends and scope for different career paths have been a requirement for all youngsters all over the world. In this paper we provide a scientific, data mining based method for job absorption rate prediction and predicting the waiting time needed for 100% placement, for different engineering courses in India. This will help the students in India in a great deal in deciding the right discipline for them for a bright future. Information about passed out students are obtained from the NTMIS ( National technical manpower information system ) NODAL center in Kochi, India residing in Cochin University of science and technology

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Diese Arbeit thematisiert die optimierte Darstellung von organischen Mikro- und Nanodrähten, Untersuchungen bezüglich deren molekularen Aufbaus und die anwendungsorientierte Charakterisierung der Eigenschaften. Mikro- und Nanodrähte haben in den letzten Jahren im Zuge der Miniaturisierung von Technologien an weitreichendem Interesse gewonnen. Solche eindimensionalen Strukturen, deren Durchmesser im Bereich weniger zehn Nanometer bis zu einigen wenigen Mikrometern liegt, sind Gegenstand intensiver Forschung. Neben anorganischen Ausgangssubstanzen zur Erzeugung von Mikro- und Nanodrähten haben organische Funktionsmaterialien aufgrund ihrer einfachen und kostengünstigen Verarbeitbarkeit sowie ihrer interessanten elektrischen und optischen Eigenschaften an Bedeutung gewonnen. Eine wichtige Materialklasse ist in diesem Zusammenhang die Verbindungsklasse der n-halbleitenden Perylentetracarbonsäurediimide (kurz Perylendiimide). Dem erfolgreichen Einsatz von eindimensionalen Strukturen als miniaturisierte Bausteine geht die optimierte und kontrollierte Herstellung voraus. Im Rahmen der Doktorarbeit wurde die neue Methode der Drahterzeugung „Trocknen unter Lösungsmittelatmosphäre“ entwickelt, welche auf Selbstassemblierung der Substanzmoleküle aus Lösung basiert und unter dem Einfluss von Lösungsmitteldampf direkt auf einem vorgegebenen Substrat stattfindet. Im Gegensatz zu literaturbekannten Methoden ist kein Transfer der Drähte aus einem Reaktionsgefäß nötig und damit verbundene Beschädigungen der Strukturen werden vermieden. Während herkömmliche Methoden in einer unkontrolliert großen Menge von ineinander verwundenen Drähten resultieren, erlaubt die substratbasierte Technik die Bildung voneinander separierter Einzelfasern und somit beispielsweise den Einsatz in Einzelstrukturbauteilen. Die erhaltenen Fasern sind morphologisch sehr gleichmäßig und weisen bei Längen von bis zu 5 mm bemerkenswert hohe Aspektverhältnisse von über 10000 auf. Darüber hinaus kann durch das direkte Drahtwachstum auf dem Substrat über den Einsatz von vorstrukturierten Oberflächen und Wachstumsmasken gerichtetes, lokal beschränktes Drahtwachstum erzielt werden und damit aktive Kontrolle auf Richtung und Wachstumsbereich der makroskopisch nicht handhabbaren Objekte ausgeübt werden. Um das Drahtwachstum auch hinsichtlich der Materialauswahl, d. h. der eingesetzten Ausgangsmaterialien zur Drahterzeugung und somit der resultierenden Eigenschaften der gebildeten Strukturen aktiv kontrollieren zu können, wird der Einfluss unterschiedlicher Parameter auf die Morphologie der Selbstassemblierungsprodukte am Beispiel unterschiedlicher Derivate betrachtet. So stellt sich zum einen die Art der eingesetzten Lösungsmittel in flüssiger und gasförmiger Phase beim Trocknen unter Lösungsmittelatmosphäre als wichtiger Faktor heraus. Beide Lösungsmittel dienen als Interaktionspartner für die Moleküle des funktionellen Drahtmaterials im Selbstassemblierungsprozess. Spezifische Wechselwirkungen zwischen Perylendiimid-Molekülen untereinander und mit Lösungsmittel-Molekülen bestimmen dabei die äußere Form der erhaltenen Strukturen. Ein weiterer wichtiger Faktor ist die Molekülstruktur des verwendeten funktionellen Perylendiimids. Es wird der Einfluss einer Bay-Substitution bzw. einer unsymmetrischen Imid-Substitution auf die Morphologie der erhaltenen Strukturen herausgestellt. Für das detaillierte Verständnis des Zusammenhanges zwischen Molekülstruktur und nötigen Wachstumsbedingungen für die Bildung von eindimensionalen Strukturen zum einen, aber auch die resultierenden Eigenschaften der erhaltenen Aggregationsprodukte zum anderen, sind Informationen über den molekularen Aufbau von großer Bedeutung. Im Rahmen der Doktorarbeit konnte ein molekular hoch geordneter, kristalliner Aufbau der Drähte nachgewiesen werden. Durch Kombination unterschiedlicher Messmethoden ist es gelungen, die molekulare Anordnung in Strukturen aus einem Spirobifluoren-substituierten Derivat in Form einer verkippten Molekülstapelung entlang der Drahtlängsrichtung zu bestimmen. Um mögliche Anwendungsbereiche der erzeugten Drähte aufzuzeigen, wurden diese hinsichtlich ihrer elektrischen und optischen Eigenschaften analysiert. Neben dem potentiellen Einsatz im Bereich von Filteranwendungen und Sensoren, sind vor allem die halbleitenden und optisch wellenleitenden Eigenschaften hervorzuheben. Es konnten organische Transistoren auf der Basis von Einzeldrähten mit im Vergleich zu Dünnschichtbauteilen erhöhten Ladungsträgerbeweglichkeiten präpariert werden. Darüber hinaus wurden die erzeugten eindimensionalen Strukturen als aktive optische Wellenleiter charakterisiert. Die im Rahmen der Dissertation erarbeiteten Kenntnisse bezüglich der Bildung von eindimensionalen Strukturen durch Selbstassemblierung, des Drahtaufbaus und erster anwendungsorientierter Charakterisierung stellen eine Basis zur Weiterentwicklung solcher miniaturisierter Bausteine für unterschiedlichste Anwendungen dar. Die neu entwickelte Methode des Trocknens unter Lösungsmittelatmosphäre ist nicht auf den Einsatz von Perylendiimiden beschränkt, sondern kann auf andere Substanzklassen ausgeweitet werden. Dies eröffnet breite Möglichkeiten der Materialauswahl und somit der Einsatzmöglichkeiten der erhaltenen Strukturen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Optimal control theory is a powerful tool for solving control problems in quantum mechanics, ranging from the control of chemical reactions to the implementation of gates in a quantum computer. Gradient-based optimization methods are able to find high fidelity controls, but require considerable numerical effort and often yield highly complex solutions. We propose here to employ a two-stage optimization scheme to significantly speed up convergence and achieve simpler controls. The control is initially parametrized using only a few free parameters, such that optimization in this pruned search space can be performed with a simplex method. The result, considered now simply as an arbitrary function on a time grid, is the starting point for further optimization with a gradient-based method that can quickly converge to high fidelities. We illustrate the success of this hybrid technique by optimizing a geometric phase gate for two superconducting transmon qubits coupled with a shared transmission line resonator, showing that a combination of Nelder-Mead simplex and Krotov’s method yields considerably better results than either one of the two methods alone.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The report addresses the problem of visual recognition under two sources of variability: geometric and photometric. The geometric deals with the relation between 3D objects and their views under orthographic and perspective projection. The photometric deals with the relation between 3D matte objects and their images under changing illumination conditions. Taken together, an alignment-based method is presented for recognizing objects viewed from arbitrary viewing positions and illuminated by arbitrary settings of light sources.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We present a trainable system for detecting frontal and near-frontal views of faces in still gray images using Support Vector Machines (SVMs). We first consider the problem of detecting the whole face pattern by a single SVM classifer. In this context we compare different types of image features, present and evaluate a new method for reducing the number of features and discuss practical issues concerning the parameterization of SVMs and the selection of training data. The second part of the paper describes a component-based method for face detection consisting of a two-level hierarchy of SVM classifers. On the first level, component classifers independently detect components of a face, such as the eyes, the nose, and the mouth. On the second level, a single classifer checks if the geometrical configuration of the detected components in the image matches a geometrical model of a face.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In the example code you can see that when the remove(Object o) method is called the Integer is not cast to an int and the matching is done using the object's .equals() method rather than using ==