950 resultados para High Definition Finite Difference Time Domain
Resumo:
Tämä työ on kirjallisuuskatsaus digitaalisen teräväpiirtoresoluution historiaan, nykyhetkeen ja tulevaisuuteen. Lisäksi käydään läpi eri medioista löytyviä termejä ja pyritään selvittämään näiden termien merkitys lukijalle. Työ on tehty Lappeenrannan teknillisen yliopiston Tietotekniikan osastolle. Teräväpiirtotelevision historia alkaa jo 1960-luvulta ja ensimmäiset teräväpiirtoresoluutiot kehitettiin 1970-luvulla. Kun resoluutiota kasvatetaan, myös kuvatiedoston ja vaadittavan tallennustilan koko kasvaa. Se aiheuttaa uusia haasteita muun muassa lähetys-, pakkaus- ja vastaanotintekniikoille. 4K-resoluutiot ovat jo täällä, mutta miten käy 16K-resoluution. Onko suuresta resoluutiosta hyötyä esimerkiksi Virtual Reality –sovelluksissa?
Resumo:
The focus of this study was to detennine whether soil texture and composition variables were related to vine water status and both yield components and grape composition, and whether multispectral high definition airborne imagery could be used to segregate zones in vineyards to target fruit of highest quality for premium winemaking. The study took place on a 10-ha commercial Riesling vineyard at Thirty Bench Winemakers, in Beamsville (Ontario). Results showed that Soil moisture and leaf'l' were temporally stable and related to berry composition and remotely-sensed data. Remote-sensing, through the calculation of vegetation indices, was particularly useful to predict vine vigor, yield, fruit maturity as well as berry monoterpene concentration; it could also clearly assist in making wines that are more representative ofthe cultivar used, and also wines that are a reflection of a specific terroir, since calculated vegetation indices were highly correlated to typical Riesling.
Resumo:
La méthode IIM (Immersed Interface Method) permet d'étendre certaines méthodes numériques à des problèmes présentant des discontinuités. Elle est utilisée ici pour étudier un fluide incompressible régi par les équations de Navier-Stokes, dans lequel est immergée une membrane exerçant une force singulière. Nous utilisons une méthode de projection dans une grille de différences finies de type MAC. Une dérivation très complète des conditions de saut dans le cas où la viscosité est continue est présentée en annexe. Deux exemples numériques sont présentés : l'un sans membrane, et l'un où la membrane est immobile. Le cas général d'une membrane mobile est aussi étudié en profondeur.
Resumo:
Thèse réalisée en cotutelle avec l'Université Catholique de Louvain (Belgique)
Resumo:
La réparation de l’ADN par excision des nucléotides (NER) est un mécanisme capable de retirer une large variété de lésions causant une distorsion de la double hélice, comme celles causées par les rayons ultraviolets (UV). Comme toutes les voies de réparation de l’ADN, la NER contribue à la prévention de la carcinogénèse en prévenant la mutation de l’ADN. Lors de ce processus, il y a d’abord reconnaissance de la lésion par la protéine XPC/Rad4 (humain/levure) qui recrute ensuite TFIIH. Ce complexe déroule l’ADN par son activité hélicase et recrute l’endonucléase XPG/Rad2 ainsi que d’autres protéines nécessaires à l’excision de l’ADN. Lors de son arrivée au site de lésion, XPG/Rad2 déplace XPC/Rad4. TFIIH agit également lors de la transcription de l’ADN, entre autres par son activité hélicase. Outre cette similarité de la présence de TFIIH lors de la transcription et la réparation, il est possible de se demander en quoi les deux voies sont similaires. Nous nous sommes donc intéressés aux interactions impliquant TFIIH et la machinerie de réparation de l’ADN. Nous avons donc entrepris une caractérisation structurale et fonctionnelle de ces interactions. Nous avons découvert que Rad2 et Rad4 possèdent un motif d’interaction en nous basant sur d’autres interactions de la sous-unité Tfb1 de TFIIH. Par calorimétrie à titrage isotherme, nous avons observé que les segments de ces deux protéines contenant ce motif interagissent avec une grande affinité au domaine PH de Tfb1. Le site de liaison de ces segments sur Tfb1PH est très semblable au site de liaison du domaine de transactivation de p53 et au domaine carboxy-terminal de TFIIEα avec Tfb1PH, tel que démontré par résonance magnétique nucléaire (RMN). De plus, tous ces segments peuvent faire compétition les uns aux autres pour la liaison à Tfb1PH. Nous avons aussi démontré in vivo chez la levure qu’une délétion de Tfb1PH crée une sensibilité aux radiations UV. De plus, la délétion de multiples segments de Rad2 et Rad4, dont les segments d’interaction à Tfb1PH, est nécessaire pour voir une sensibilité aux rayons UV. Ainsi, de multiples interactions sont impliquées dans la liaison de Rad2 et Rad4 à TFIIH. Finalement, les structures des complexes Rad2-Tfb1PH et Rad4-Tfb1PH ont été résolues par RMN. Ces structures sont identiques entre elles et impliquent des résidus hydrophobes interagissant avec des cavités peu profondes de Tfb1PH. Ces structures sont très semblables à la structure de TFIIEα-p62PH. Ces découvertes fournissent ainsi un lien important entre la transcription et la réparation de l’ADN. De plus, elles permettent d’émettre un modèle du mécanisme de déplacement de XPC/Rad4 par XPG/Rad2 au site de dommage à l’ADN. Ces connaissances aident à mieux comprendre les mécanismes de maintient de la stabilité génomique et peuvent ainsi mener à développer de nouvelles thérapies contre le cancer.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
Les expériences de spectroscopie ont été réalisées en collaboration avec Jean-François Allard du groupe de Denis Morris de l'Université de Sherbrooke.
Resumo:
Dans l'apprentissage machine, la classification est le processus d’assigner une nouvelle observation à une certaine catégorie. Les classifieurs qui mettent en œuvre des algorithmes de classification ont été largement étudié au cours des dernières décennies. Les classifieurs traditionnels sont basés sur des algorithmes tels que le SVM et les réseaux de neurones, et sont généralement exécutés par des logiciels sur CPUs qui fait que le système souffre d’un manque de performance et d’une forte consommation d'énergie. Bien que les GPUs puissent être utilisés pour accélérer le calcul de certains classifieurs, leur grande consommation de puissance empêche la technologie d'être mise en œuvre sur des appareils portables tels que les systèmes embarqués. Pour rendre le système de classification plus léger, les classifieurs devraient être capable de fonctionner sur un système matériel plus compact au lieu d'un groupe de CPUs ou GPUs, et les classifieurs eux-mêmes devraient être optimisés pour ce matériel. Dans ce mémoire, nous explorons la mise en œuvre d'un classifieur novateur sur une plate-forme matérielle à base de FPGA. Le classifieur, conçu par Alain Tapp (Université de Montréal), est basé sur une grande quantité de tables de recherche qui forment des circuits arborescents qui effectuent les tâches de classification. Le FPGA semble être un élément fait sur mesure pour mettre en œuvre ce classifieur avec ses riches ressources de tables de recherche et l'architecture à parallélisme élevé. Notre travail montre que les FPGAs peuvent implémenter plusieurs classifieurs et faire les classification sur des images haute définition à une vitesse très élevée.
Resumo:
Un algorithme permettant de discrétiser les équations aux dérivées partielles (EDP) tout en préservant leurs symétries de Lie est élaboré. Ceci est rendu possible grâce à l'utilisation de dérivées partielles discrètes se transformant comme les dérivées partielles continues sous l'action de groupes de Lie locaux. Dans les applications, beaucoup d'EDP sont invariantes sous l'action de transformations ponctuelles de Lie de dimension infinie qui font partie de ce que l'on désigne comme des pseudo-groupes de Lie. Afin d'étendre la méthode de discrétisation préservant les symétries à ces équations, une discrétisation des pseudo-groupes est proposée. Cette discrétisation a pour effet de transformer les symétries ponctuelles en symétries généralisées dans l'espace discret. Des schémas invariants sont ensuite créés pour un certain nombre d'EDP. Dans tous les cas, des tests numériques montrent que les schémas invariants approximent mieux leur équivalent continu que les différences finies standard.
Resumo:
A theoretical analysis of a symmetric T-shaped rnicrostripfed rectangular microstrip antenna using the finite-difference titnedoniain (FDTD) method is presented in this paper. The resonant frequency, return loss, impedance bandwidth, and radiation patterns are predicted and are in good agreement with the measured results
Resumo:
Department of Statistics, Cochin University of Sciene ans Technology
Resumo:
This thesis deals with the study of light beam propagation through different nonlinear media. Analytical and numerical methods are used to show the formation of solitonS in these media. Basic experiments have also been performed to show the formation of a self-written waveguide in a photopolymer. The variational method is used for the analytical analysis throughout the thesis. Numerical method based on the finite-difference forms of the original partial differential equation is used for the numerical analysis.In Chapter 2, we have studied two kinds of solitons, the (2 + 1) D spatial solitons and the (3 + l)D spatio-temporal solitons in a cubic-quintic medium in the presence of multiphoton ionization.In Chapter 3, we have studied the evolution of light beam through a different kind of nonlinear media, the photorcfractive polymer. We study modulational instability and beam propagation through a photorefractive polymer in the presence of absorption losses. The one dimensional beam propagation through the nonlinear medium is studied using variational and numerical methods. Stable soliton propagation is observed both analytically and numerically.Chapter 4 deals with the study of modulational instability in a photorefractive crystal in the presence of wave mixing effects. Modulational instability in a photorefractive medium is studied in the presence of two wave mixing. We then propose and derive a model for forward four wave mixing in the photorefractive medium and investigate the modulational instability induced by four wave mixing effects. By using the standard linear stability analysis the instability gain is obtained.Chapter 5 deals with the study of self-written waveguides. Besides the usual analytical analysis, basic experiments were done showing the formation of self-written waveguide in a photopolymer system. The formation of a directional coupler in a photopolymer system is studied theoretically in Chapter 6. We propose and study, using the variational approximation as well as numerical simulation, the evolution of a probe beam through a directional coupler formed in a photopolymer system.
Resumo:
The design and performance of a stepped slot printed monopole antenna in the ultrawideband is presented in this article. Multiple resonances generated by the stepped slot geometry are matched in the ultrawideband using a modified microstrip feed. The impedance bandwidth (SWR < 2) of the antenna is from 3 to 11 GHz. Radiation patterns are stable and omnidirectional with appreciable gain throughout the band. Performance of the antenna is also analyzed in the time domain, which reveals good pulse handling capabilities. Compact geometry of the antenna allows easy commercial deployment.
Resumo:
A new geometry (semiannular) for Josephson junction has been proposed and theoretical studies have shown that the new geometry is useful for electronic applications [1, 2]. In this work we study the voltage‐current response of the junction with a periodic modulation. The fluxon experiences an oscillating potential in the presence of the ac‐bias which increases the depinning current value. We show that in a system with periodic boundary conditions, average progressive motion of fluxon commences after the amplitude of the ac drive exceeds a certain threshold value. The analytic studies are justified by simulating the equation using finite‐difference method. We observe creation and annihilation of fluxons in semiannular Josephson junction with an ac‐bias in the presence of an external magnetic field.
Resumo:
There is a recent trend to describe physical phenomena without the use of infinitesimals or infinites. This has been accomplished replacing differential calculus by the finite difference theory. Discrete function theory was first introduced in l94l. This theory is concerned with a study of functions defined on a discrete set of points in the complex plane. The theory was extensively developed for functions defined on a Gaussian lattice. In 1972 a very suitable lattice H: {Ci qmxO,I qnyo), X0) 0, X3) 0, O < q < l, m, n 5 Z} was found and discrete analytic function theory was developed. Very recently some work has been done in discrete monodiffric function theory for functions defined on H. The theory of pseudoanalytic functions is a generalisation of the theory of analytic functions. When the generator becomes the identity, ie., (l, i) the theory of pseudoanalytic functions reduces to the theory of analytic functions. Theugh the theory of pseudoanalytic functions plays an important role in analysis, no discrete theory is available in literature. This thesis is an attempt in that direction. A discrete pseudoanalytic theory is derived for functions defined on H.