918 resultados para High-speed digital imaging
Resumo:
Field lab: Business project
Resumo:
Dissertação de mestrado em Optometria Avançada
Resumo:
This paper presents a short history of the appraisal of laser scanner technologies in geosciences used for imaging relief by high-resolution digital elevation models (HRDEMs) or 3D models. A general overview of light detection and ranging (LIDAR) techniques applied to landslides is given, followed by a review of different applications of LIDAR for landslide, rockfall and debris-flow. These applications are classified as: (1) Detection and characterization of mass movements; (2) Hazard assessment and susceptibility mapping; (3) Modelling; (4) Monitoring. This review emphasizes how LIDARderived HRDEMs can be used to investigate any type of landslides. It is clear that such HRDEMs are not yet a common tool for landslides investigations, but this technique has opened new domains of applications that still have to be developed.
Resumo:
Coronary MR imaging is a promising noninvasive technique for the combined assessment of coronary artery anatomy and function. Anomalous coronary arteries and aneurysms can reliably be assessed in clinical practice using coronary MR imaging and the presence of significant left main or proximal multivessel coronary artery disease detected. Technical challenges that need to be addressed are further improvements in motion suppression and abbreviated scanning times aimed at improving spatial resolution and patient comfort. The development of new and specific contrast agents, high-field MR imaging with improved spatial resolution, and continued progress in MR imaging methods development will undoubtedly lead to further progress toward the noninvasive and comprehensive assessment of coronary atherosclerotic disease.
Resumo:
L’Slot, conegut per tots amb el nom d’Scalextric, s’ha implantat com a una forma d’oci habitual, la pràctica del qual no queda restringida als més petits, sinó que cada vegada crea més afició entre els grans. El fet que l’Slot s’hagi extès entre els adults n’ha revolucionat la pràctica. L’entrada al mercat de l’Slot de gent adulta, i amb poder adquisitiu molt superior als adolescents, ha provocat que les marques especialitzades vagin evolucionant els seus productes cada vegada més. Totes les marques s’han vist obligades a desenvolupar vehicles més competitius i alhora treure al mercat accessoris que augmentin la realitat del joc. Una de les necessitats que s’ha creat és la de competir entre jugadors. Aquesta competició tan pot ser en forma de carrera entre diversos participants, com de forma individual, cronometrant el temps de cada participant en un circuit. L’objectiu principal del projecte és crear un sistema capaç de realitzar cronometratges en temps real mitjançant sensors digitals ja existents en el mercat de l’Slot i poder controlar i visualitzar la informació des d’un PC. Per a poder captar els senyals dels sensors s’ha utilitzat un sistema microcontrolat, que garanteix gran velocitat d’adquisició, processament de dades i transmissió. La comunicació del Microcontrolador amb el PC s’ha realizat mitjançant el bus USB. El PC serà el controlador del sistema i donarà les ordres al Microcontrolador, podent així tenir control total sobre el funcionament del programa. També serà el PC el que tractarà els crocometratges enregistrats i els mostrarà per pantalla
Resumo:
Due to the advances in sensor networks and remote sensing technologies, the acquisition and storage rates of meteorological and climatological data increases every day and ask for novel and efficient processing algorithms. A fundamental problem of data analysis and modeling is the spatial prediction of meteorological variables in complex orography, which serves among others to extended climatological analyses, for the assimilation of data into numerical weather prediction models, for preparing inputs to hydrological models and for real time monitoring and short-term forecasting of weather.In this thesis, a new framework for spatial estimation is proposed by taking advantage of a class of algorithms emerging from the statistical learning theory. Nonparametric kernel-based methods for nonlinear data classification, regression and target detection, known as support vector machines (SVM), are adapted for mapping of meteorological variables in complex orography.With the advent of high resolution digital elevation models, the field of spatial prediction met new horizons. In fact, by exploiting image processing tools along with physical heuristics, an incredible number of terrain features which account for the topographic conditions at multiple spatial scales can be extracted. Such features are highly relevant for the mapping of meteorological variables because they control a considerable part of the spatial variability of meteorological fields in the complex Alpine orography. For instance, patterns of orographic rainfall, wind speed and cold air pools are known to be correlated with particular terrain forms, e.g. convex/concave surfaces and upwind sides of mountain slopes.Kernel-based methods are employed to learn the nonlinear statistical dependence which links the multidimensional space of geographical and topographic explanatory variables to the variable of interest, that is the wind speed as measured at the weather stations or the occurrence of orographic rainfall patterns as extracted from sequences of radar images. Compared to low dimensional models integrating only the geographical coordinates, the proposed framework opens a way to regionalize meteorological variables which are multidimensional in nature and rarely show spatial auto-correlation in the original space making the use of classical geostatistics tangled.The challenges which are explored during the thesis are manifolds. First, the complexity of models is optimized to impose appropriate smoothness properties and reduce the impact of noisy measurements. Secondly, a multiple kernel extension of SVM is considered to select the multiscale features which explain most of the spatial variability of wind speed. Then, SVM target detection methods are implemented to describe the orographic conditions which cause persistent and stationary rainfall patterns. Finally, the optimal splitting of the data is studied to estimate realistic performances and confidence intervals characterizing the uncertainty of predictions.The resulting maps of average wind speeds find applications within renewable resources assessment and opens a route to decrease the temporal scale of analysis to meet hydrological requirements. Furthermore, the maps depicting the susceptibility to orographic rainfall enhancement can be used to improve current radar-based quantitative precipitation estimation and forecasting systems and to generate stochastic ensembles of precipitation fields conditioned upon the orography.
Resumo:
Turtle Mountain in Alberta, Canada has become an important field laboratory for testing different techniques related to the characterization and monitoring of large slope mass movements as the stability of large portions of the eastern face of the mountain is still questionable. In order to better quantify the volumes potentially unstable and the most probable failure mechanisms and potential consequences, structural analysis and runout modeling were preformed. The structural features of the eastern face were investigated using a high resolution digital elevation model (HRDEM). According to displacement datasets and structural observations, potential failure mechanisms affecting different portions of the mountain have been assessed. The volumes of the different potentially unstable blocks have been calculated using the Sloping Local Base Level (SLBL) method. Based on the volume estimation, two and three dimensional dynamic runout analyses have been performed. Calibration of this analysis is based on the experience from the adjacent Frank Slide and other similar rock avalanches. The results will be used to improve the contingency plans within the hazard area.
Resumo:
A major problem with holographic optical tweezers (HOTs) is their incompatibility with laser-based position detection methods, such as back-focal-plane interferometry (BFPI). The alternatives generally used with HOTs, like high-speed video tracking, do not offer the same spatial and temporal bandwidths. This has limited the use of this technique in precise quantitative experiments. In this paper, we present an optical trap design that combines digital holography and back-focal-plane displacement detection. We show that, with a particularly simple setup, it is possible to generate a set of multiple holographic traps and an additional static non-holographic trap with orthogonal polarizations and that they can be, therefore, easily separated for measuring positions and forces with the high positional and temporal resolutions of laser-based detection. We prove that measurements from both polarizations contain less than 1% crosstalk and that traps in our setup are harmonic within the typical range. We further tested the instrument in a DNA stretching experiment and we discuss an interesting property of this configuration: the small drift of the differential signal between traps.
Resumo:
Tässä työssä raportoidaan hybridihitsauksesta otettujen suurnopeuskuvasarjojen automaattisen analyysijärjestelmän kehittäminen.Järjestelmän tarkoitus oli tuottaa tietoa, joka avustaisi analysoijaa arvioimaan kuvatun hitsausprosessin laatua. Tutkimus keskittyi valokaaren taajuuden säännöllisyyden ja lisäainepisaroiden lentosuuntien mittaamiseen. Valokaaria havaittiin kuvasarjoista sumean c-means-klusterointimenetelmän avullaja perättäisten valokaarien välistä aikaväliä käytettiin valokaaren taajuuden säännöllisyyden mittarina. Pisaroita paikannettiin menetelmällä, jossa yhdistyi pääkomponenttianalyysi ja tukivektoriluokitin. Kalman-suodinta käytettiin tuottamaan arvioita pisaroiden lentosuunnista ja nopeuksista. Lentosuunnanmääritysmenetelmä luokitteli pisarat niiden arvioitujen lentosuuntien perusteella. Järjestelmän kehittämiseen käytettävissä olleet kuvasarjat poikkesivat merkittävästi toisistaan kuvanlaadun ja pisaroiden ulkomuodon osalta, johtuen eroista kuvaus- ja hitsausprosesseissa. Analyysijärjestelmä kehitettiin toimimaan pienellä osajoukolla kuvasarjoja, joissa oli tietynlainen kuvaus- ja hitsausprosessi ja joiden kuvanlaatu ja pisaroiden ulkomuoto olivat samankaltaisia, mutta järjestelmää testattiin myös osajoukon ulkopuolisilla kuvasarjoilla. Testitulokset osoittivat, että lentosuunnanmääritystarkkuus oli kohtuullisen suuri osajoukonsisällä ja pieni muissa kuvasarjoissa. Valokaaren taajuuden säännöllisyyden määritys oli tarkka useammassa kuvasarjassa.
Resumo:
Mobiililaitteet ovat kehittyneet merkittävästi viimeisen vuosikymmenen aikana. Ne eivät enää ole pelkästään puhelimia tai kämmentietokoneita, vaan multimediatietokoneita, jotka pystyvät tuottamaan korkealaatuisia elämyksiä käyttäjälleen.Sisällön laadun paraneminen johtaa väistämättä myös siirrettävän tietomäärän kasvamiseen. Siksi uusia, nopeampia tiedonsiirtomenetelmiä on otettava käyttöön. Ultra Wideband (UWB) on uusi radioaaltotekniikka, jokamahdollistaa korkeat tiedonsiirtonopeudet lyhyillä etäisyyksillä. Tekniikka operoi erittäin leveällä 3.1 - 10.6 gigahertsin taajuuskaistalla.UWB on suunnattu nopeaan, langattomaan tiedonsiirtoon personal area networkin (PAN) laitteiden välillä. Tämän diplomityön tarkoituksena on arvioida UWBn soveltuvuutta mobiililaitteisiin. Arviointi tehdään teoreettiselta pohjalta, sillä UWBtä ei vielä ole implementoitu kaupallisiin laitteisiin. Ensin esitellään UWBn tekniikka ja ominaisuudet, jonka jälkeen sen soveltuvuutta arvioidaan esimerkkikäyttötapausten valossa. Esimerkkikäyttötapauksiksi on valittu kolme tyypillistä mutta erilaista toimintoa, jotka mahdollisimman hyvin kuvaavat mobiililaitteiden käyttöä.
Resumo:
L'objectif de ce travail est le développement d'une méthode de caractérisation objective de la qualité d'image s'appliquant à des systèmes de mammographie analogique, utilisant un couple écran-film comme détecteur, et numérique, basé sur une technologie semi-conductrice, ceci en vue de la comparaison de leurs performances. La méthode développée tient compte de la gamme dynamique du détecteur, de la détectabilité de structures de haut contraste, simulant des microcalcifications, et de structures de bas contraste, simulant des opacités (nodules tumoraux). La méthode prend également en considération le processus de visualisation de l'image, ainsi que la réponse de l'observateur. Pour réaliser ceci, un objet-test ayant des propriétés proches de celles d'un sein comprimé, composé de différents matériaux équivalents aux tissus, allant du glandulaire à l'adipeux, et comprenant des zones permettant la simulation de structures de haut et bas contraste, ainsi que la mesure de la résolution et celle du bruit, a été développé et testé. L'intégration du processus de visualisation a été réalisée en utilisant une caméra CCD mesurant directement les paramètres de qualité d'image, à partir de l'image de l'objet-test, dans une grandeur physique commune au système numérique et analogique, à savoir la luminance arrivant sur l'oeil de l'observateur. L'utilisation d'une grandeur synthétique intégrant dans un même temps, le contraste, le bruit et la résolution rend possible une comparaison objective entre les deux systèmes de mammographie. Un modèle mathématique, simulant la réponse d'un observateur et intégrant les paramètres de base de qualité d'image, a été utilisé pour calculer la détectabilité de structures de haut et bas contraste en fonction du type de tissu sur lequel celles-ci se trouvent. Les résultats obtenus montrent qu'à dose égale la détectabilité des structures est significativement plus élevée avec le système de mammographie numérique qu'avec le système analogique. Ceci est principalement lié au fait que le bruit du système numérique est plus faible que celui du système analogique. Les résultats montrent également que la méthodologie, visant à comparer des systèmes d'imagerie numérique et analogique en utilisant un objet-test à large gamme dynamique ainsi qu'une caméra, peut être appliquée à d'autres modalités radiologiques, ainsi qu'à une démarche d'optimisation des conditions de lecture des images.<br/><br/>The goal of this work was to develop a method to objectively compare the performance of a digital and a screen-film mammography system in terms of image quality and patient dose. We propose a method that takes into account the dynamic range of the image detector and the detection of high contrast (for microcalcifications) and low contrast (for masses or tumoral nodules) structures. The method also addresses the problems of image visualization and the observer response. A test object, designed to represent a compressed breast, was constructed from various tissue equivalent materials ranging from purely adipose to purely glandular composition. Different areas within the test object permitted the evaluation of low and high contrast detection, spatial resolution, and image noise. All the images (digital and conventional) were captured using a CCD camera to include the visualization process in the image quality assessment. In this way the luminance reaching the viewer?s eyes can be controlled for both kinds of images. A global quantity describing image contrast, spatial resolution and noise, and expressed in terms of luminance at the camera, can then be used to compare the two technologies objectively. The quantity used was a mathematical model observer that calculates the detectability of high and low contrast structures as a function of the background tissue. Our results show that for a given patient dose, the detection of high and low contrast structures is significantly better for the digital system than for the conventional screen-film system studied. This is mainly because the image noise is lower for the digital system than for the screen-film detector. The method of using a test object with a large dynamic range combined with a camera to compare conventional and digital imaging modalities can be applied to other radiological imaging techniques. In particular it could be used to optimize the process of radiographic film reading.
Resumo:
Työn tavoitteena oli syventyä filmipäällystimen nippitapahtumaan ja siellä tapahtuviin ilmiöihin. Tämän lisäksi selvitettiin esipäällystysparametrien ja pohjapaperin merkitys filmipäällystimen ajettavuudelle. Erityisesti pyrittiin selvittämään päällystemäärän ja applikointitelojen momenttieron vaikutus ajettavuuteen sekä kiihdytysvaiheessa ilmenevien ajettavuusongelmien syntymekanismit. Työn kokeellinen osa jakaantui kahteen osaan. Ensimmäisessä osassa pyritään löytämään lisäymmärrystä nippitapahtuman ilmiöille joita sitten hyödynnetään toisen osan koeajoissa. Staattisilla kuormituskokeilla tutkittiin telapinnan kokoonpuristumista ja suurnopeus-kamerakuvauksilla nipin geometriaa päällystyskoneen ajon aikana. Applikointitelojen momenttierokoeajoilla pyrittiin selvittämään paperiradan mahdollista luistoa nipissä. MCA-kosteuspitoisuusanalysaattorilla mitattiin nippitapahtuman muutosten vaikutusta filmipäällystimen paluufilmin ominaisuuksiin. Muuttelemalla päällystemäärää ja – jakaumaa sekä applikointitelojen momenttieroa selvitettiin esipäällystysparametrien vaikutus filmipäällystimen ajettavuuteen. Muokkaamalla pohjapaperin absorptiokykyä sekä pastan vedenpidätyskykyä tutkittiin nestepenetraation vaikutusta ajettavuuteen. Telapinnan kokoonpuristuman havaittiin olevan pieni eikä ajon aikana nipin geometriassa havaittu muutoksia. Paperiradan todettiin luistavan nipissä, mutta luistoilmiö oli huomattavasti pienempi mitä nopeuserolukemista voidaan päätellä. Kiihdytysvaiheessa havaittiin selviä muutoksia paluufilmissä, mutta ajon aikana paluufilmi pysyi lähes vakiona. Päällystemäärän todettiin olevan suurin yksittäinen tekijä filmipäällystimen ajettavuudessa ja siihen tulee kiinnittää erityistä huomiota filmipäällystimen kiihdytysvaiheessa. Aukirullauksen levitystelan vaihdon myötä todettiin pohjapaperiin kohdistuvilla kuormituksilla olevan myös suuri merkitys filmipäällystimen ajettavuudelle.
Resumo:
Taajuudenmuuttajan kytkennän synnyttämä nopea jännitemuutos aiheuttaa pitkään moottorikaapeliin sähköisen värähtelyilmiön. Ilmiö on tullut erityisesti esille uusien nopeasti kytkevien puolijohdetehokytkimien ilmestyttyä markkinoille. Taajuudenmuuttajan lähtöön asennettu jännitteen nousunopeutta rajoittava suodin vähentää kaapelivärähtelyä, mutta riittävän pitkässä kaapelissa värähtely on voimakasta lähtösuotimesta huolimatta. Kaapelivärähtelyilmiön seurauksena moottorikaapelin taajuudenmuuttajan puoleiseen päähän syntyy voimakas virtavärähtely ja moottorin puoleiseen päähän voimakas jännitevärähtely. Sähkökäyttöjen vektorisäätöalgoritmit tekevät ohjauspäätöksiä moottorikaapelin taajuudenmuuttajan päästä tehtyjen virtamittausten perusteella. Säädön päätösväli on niin lyhyt, että kaapelin virtavärähtely ehtii häiritä säädön toimintaa. Tässä työssä on esitetty kaapelivärähtelyä kuvaava taajuudenmuuttajan lähtösuotimen huomioon ottava siirtofunktioperustainen matemaattinen malli. Mallin avulla kaapelivärähtelyilmiötä voi analysoida lineaarisen säätöteorian menetelmillä. Virtavärähtelyn moottorisäätöön tuomiin ongelmiin ratkaisuksi on esitetty virran mittasignaalin käsittelemistä analogisella ja digitaalisella suotimella. Simulointitulosten perusteella ratkaisua voidaan pitää toimivana. Lopuksi esitetään, kuinka avaruusvektoriteorian mukaista induktiomoottorimallia ja kaapelivärähtelymallia voidaan simuloida yhdessä.
Resumo:
As the development of integrated circuit technology continues to follow Moore’s law the complexity of circuits increases exponentially. Traditional hardware description languages such as VHDL and Verilog are no longer powerful enough to cope with this level of complexity and do not provide facilities for hardware/software codesign. Languages such as SystemC are intended to solve these problems by combining the powerful expression of high level programming languages and hardware oriented facilities of hardware description languages. To fully replace older languages in the desing flow of digital systems SystemC should also be synthesizable. The devices required by modern high speed networks often share the same tight constraints for e.g. size, power consumption and price with embedded systems but have also very demanding real time and quality of service requirements that are difficult to satisfy with general purpose processors. Dedicated hardware blocks of an application specific instruction set processor are one way to combine fast processing speed, energy efficiency, flexibility and relatively low time-to-market. Common features can be identified in the network processing domain making it possible to develop specialized but configurable processor architectures. One such architecture is the TACO which is based on transport triggered architecture. The architecture offers a high degree of parallelism and modularity and greatly simplified instruction decoding. For this M.Sc.(Tech) thesis, a simulation environment for the TACO architecture was developed with SystemC 2.2 using an old version written with SystemC 1.0 as a starting point. The environment enables rapid design space exploration by providing facilities for hw/sw codesign and simulation and an extendable library of automatically configured reusable hardware blocks. Other topics that are covered are the differences between SystemC 1.0 and 2.2 from the viewpoint of hardware modeling, and compilation of a SystemC model into synthesizable VHDL with Celoxica Agility SystemC Compiler. A simulation model for a processor for TCP/IP packet validation was designed and tested as a test case for the environment.
Resumo:
The regulation of speed limits in the US had been centralized at the federal level since 1974, until decisions were devolved to the states in 1995. However, the centralization debate has reemerged in recent years. Here, we conduct the first econometric analysis of the determinants of speed limit laws. By using economic, geographic and political variables, our results suggest that geography -which affects private mobility needs and preferences- is the main factor influencing speed limit laws. We also highlight the role played by political ideology, with Republican constituencies being associated with higher speed limits. Furthermore, we identify the presence of regional and time dependence effects. By contrast, poor road safety outcomes do not impede the enactment of high speed limits. Overall, we present the first evidence of the role played by geographical, ideological and regional characteristics, which provide us with a better understanding of the formulation of speed limit policies.