988 resultados para Matematisk problemlösning
Resumo:
Due to the recent development in CCD technology aerial photography is now slowly changing from film to digital cameras. This new aspect in remote sensing allows and requires also new automated analysis methods. Basic research on reflectance properties of natural targets is needed so that computerized processes could be fully utilized. For this reason an instrument was developed at Finnish Geodetic Institute for measurement of multiangular reflectance of small remote sensing targets e.g. forest understorey or asphalt. Finnish Geodetic Institute Field Goniospectrometer (FiGIFiGo) is a portable device that is operated by 1 or 2 persons. It can be reassembled to a new location in 15 minutes and after that a target's multiangular reflectance can be measured in 10 - 30 minutes (with one illumination angle). FiGIFiGo has effective spectral range approximately from 400 nm to 2000 nm. The measurements can be made either outside with sunlight or in laboratory with 1000 W QTH light source. In this thesis FiGIFiGo is introduced and the theoretical basis of such reflectance measurements are discussed. A new method is introduced for extraction of subcomponent proportions from reflectance of a mixture sample, e.g. for retrieving proportion of lingonberry's reflectance in observation of lingonberry-lichen sample. This method was tested by conducting a series of measurements on reflectance properties of artificial samples. The component separation method yielded sound results and brought up interesting aspects in targets' reflectances. The method and the results still need to be verified with further studies, but the preliminary results imply that this method could be a valuable tool in analysis of such mixture samples.
Resumo:
Gravitaation kvanttiteorian muotoilu on ollut teoreettisten fyysikkojen tavoitteena kvanttimekaniikan synnystä lähtien. Kvanttimekaniikan soveltaminen korkean energian ilmiöihin yleisen suhteellisuusteorian viitekehyksessä johtaa aika-avaruuden koordinaattien operatiiviseen ei-kommutoivuuteen. Ei-kommutoivia aika-avaruuden geometrioita tavataan myös avointen säikeiden säieteorioiden tietyillä matalan energian rajoilla. Ei-kommutoivan aika-avaruuden gravitaatioteoria voisi olla yhteensopiva kvanttimekaniikan kanssa ja se voisi mahdollistaa erittäin lyhyiden etäisyyksien ja korkeiden energioiden prosessien ei-lokaaliksi uskotun fysiikan kuvauksen, sekä tuottaa yleisen suhteellisuusteorian kanssa yhtenevän teorian pitkillä etäisyyksillä. Tässä työssä tarkastelen gravitaatiota Poincarén symmetrian mittakenttäteoriana ja pyrin yleistämään tämän näkemyksen ei-kommutoiviin aika-avaruuksiin. Ensin esittelen Poincarén symmetrian keskeisen roolin relativistisessa fysiikassa ja sen kuinka klassinen gravitaatioteoria johdetaan Poincarén symmetrian mittakenttäteoriana kommutoivassa aika-avaruudessa. Jatkan esittelemällä ei-kommutoivan aika-avaruuden ja kvanttikenttäteorian muotoilun ei-kommutoivassa aika-avaruudessa. Mittasymmetrioiden lokaalin luonteen vuoksi tarkastelen huolellisesti mittakenttäteorioiden muotoilua ei-kommutoivassa aika-avaruudessa. Erityistä huomiota kiinnitetään näiden teorioiden vääristyneeseen Poincarén symmetriaan, joka on ei-kommutoivan aika-avaruuden omaama uudentyyppinen kvanttisymmetria. Seuraavaksi tarkastelen ei-kommutoivan gravitaatioteorian muotoilun ongelmia ja niihin kirjallisuudessa esitettyjä ratkaisuehdotuksia. Selitän kuinka kaikissa tähänastisissa lähestymistavoissa epäonnistutaan muotoilla kovarianssi yleisten koordinaattimunnosten suhteen, joka on yleisen suhteellisuusteorian kulmakivi. Lopuksi tutkin mahdollisuutta yleistää vääristynyt Poincarén symmetria lokaaliksi mittasymmetriaksi --- gravitaation ei-kommutoivan mittakenttäteorian saavuttamisen toivossa. Osoitan, että tällaista yleistystä ei voida saavuttaa vääristämällä Poincarén symmetriaa kovariantilla twist-elementillä. Näin ollen ei-kommutoivan gravitaation ja vääristyneen Poincarén symmetrian tutkimuksessa tulee jatkossa keskittyä muihin lähestymistapoihin.
Resumo:
Tässä Pro Gradu -tutkielmassa oli tarkoitus määrittää ne lämpötilan ääriarvojen maksimi ja minimi arvot, jotka ovat vielä fysikaalisesti mahdollisia Suomen ilmastossa. Työssä käytettiin hyväksi kahta eri yksidimensioista ilmakehämallia, 1D-H634 sekä 1D-RCA3. Ensiksi mainittu pohjaa HIRLAM 6.3.4- malliin. Jälkimmäisessä mallissa HIRLAMin pintaprosessit on korvattu ruotsalaisen Rossby-keskuksen RCA3 -mallin fysiikalla. Tutkimukseen otettiin mukaan kaikki kolme luotausasemaa Suomesta (Jokioinen, Jyväskylä ja Sodankylä). Työ aloitettiin poimimalla Ilmatieteen laitoksen ilmastotietokannasta ne ajankohdat, joina kahden metrin lämpötila on ylittänyt kesällä +30°C ja alittanut talvella -35°C. Seuraavaksi etsittiin näitä ajanjaksoja vastaavat luotaustiedot. Luotauksia tutkimalla pyrittiin selvittämään mitkä tekijät vaikuttivat äärilämpötilojen esiintymiseen. Tämän jälkeen nämä luotaustiedot interpoloitiin vastaamaan mallin 40 vertikaalitasoa. Nämä tiedot syötettiin malleille yhdessä päivämäärän, kellonajan sekä koordinaattien kanssa ja tulokseksi saatiin vuorokauden kahden metrin lämpötilakäyrät. Koska yksidimensioiset mallit eivät ota huomioon lämmön advektiota, laskettiin Euroopan keskipitkien sääennusteiden keskuksen (ECMWF) ERA40-uusanalyysien pohjalta kyseisiä ajanhetkiä vastaavat lämmön advektiot. Lisäksi laskettiin keskimääräiset advektion vuorokausirytmit kesällä (kesä-heinä-elo) ja talvella (tammi-helmi). Suomesta saatujen luotaustietojen pohjalta tehtyjen ajojen kahden metrin lämpötilat eivät kesätilanteessa kyenneet ylittämään Turussa vuonna 1914 mitattua lämpötilaennätystä +35,9°C. Verrattaessa kuitenkin malliajojen tuloksia tehtyihin havaintoihin, voitiin kesätilanteissa todeta mallin antavan jopa 5°C lämpimämpiä arvoja kuin kyseisissä tilanteissa on mitattu. Lopuksi päätettiin tehdä malliajo, jossa luotaus otettiin Tallinnan lentoasemalta elokuulta 1992. Tämän luotaustiedon pohjalta tehdyn ajon tulos (+36,4°C) ylitti Suomessa havaitun lämpötilaennätyksen. Talvitilanteissa 1D-H634-malli ei puolestaan kyennyt saavuttamaan Suomen pakkasennätystä (-51,5°C), joka mitattiin Kittilässä vuonna 1999. Mallitetut pakkaslukemat olivat kuitenkin suurimmassa osassa ajoja kireämpiä kuin mitä kyseisten tilanteiden havainnot kertovat. Käytettäessä 1D-RCA3-mallia päästiin pakkasissa -53,8°C:seen ja pakkaslukemat olivat muutenkin paljon alhaisempia verrattuna 1D-H634- mallin tuloksiin.
Resumo:
In technicolor theories the scalar sector of the Standard Model is replaced by a strongly interacting sector. Although the Standard Model has been exceptionally successful, the scalar sector causes theoretical problems that make these theories seem an attractive alternative. I begin my thesis by considering QCD, which is the known example of strong interactions. The theory exhibits two phenomena: confinement and chiral symmetry breaking. I find the low-energy dynamics to be similar to that of the sigma models. Then I analyze the problems of the Standard Model Higgs sector, mainly the unnaturalness and triviality. Motivated by the example of QCD, I introduce the minimal technicolor model to resolve these problems. I demonstrate the minimal model to be free of anomalies and then deduce the main elements of its low-energy particle spectrum. I find the particle spectrum contains massless or very light technipions, and also technibaryons and techni-vector mesons with a high mass of over 1 TeV. Standard Model fermions remain strictly massless at this stage. Thus I introduce the technicolor companion theory of flavor, called extended technicolor. I show that the Standard Model fermions and technihadrons receive masses, but that they remain too light. I also discuss flavor-changing neutral currents and precision electroweak measurements. I then show that walking technicolor models partly solve these problems. In these models, contrary to QCD, the coupling evolves slowly over a large energy scale. This behavior adds to the masses so that even the light technihadrons are too heavy to be detected at current particle accelerators. Also all observed masses of the Standard Model particles can be generated, except for the bottom and top quarks. Thus it is shown in this thesis that, excluding the masses of third generation quarks, theories based on walking technicolor can in principle produce the observed particle spectrum.
Resumo:
This masters thesis explores some of the most recent developments in noncommutative quantum field theory. This old theme, first suggested by Heisenberg in the late 1940s, has had a renaissance during the last decade due to the firmly held belief that space-time becomes noncommutative at small distances and also due to the discovery that string theory in a background field gives rise to noncommutative field theory as an effective low energy limit. This has led to interesting attempts to create a noncommutative standard model, a noncommutative minimal supersymmetric standard model, noncommutative gravity theories etc. This thesis reviews themes and problems like those of UV/IR mixing, charge quantization, how to deal with the non-commutative symmetries, how to solve the Seiberg-Witten map, its connection to fluid mechanics and the problem of constructing general coordinate transformations to obtain a theory of noncommutative gravity. An emphasis has been put on presenting both the group theoretical results and the string theoretical ones, so that a comparison of the two can be made.
Resumo:
Alueellisten ilmastomallien vaakasuuntainen erottelukyky on globaaleja malleja huomattavasti tarkempi, minkä vuoksi niillä on useita käyttökohteita ilmastonmuutoksen vaikutusten arvioinnissa. Tässä Pro Gradu – työssä tutkittiin alueellisten ilmastomallien tuottamia sademääräsimulaatioita sekä sadehavaintoaineistoja Euroopassa. Aineistona käytettiin ENSEMBLES-hankkeen tarjoamia 10 alueellista ilmastosimulaatiota, kahta hilamuotoista havaintoaineistoa sekä Ilmatieteen laitoksen sadeasemahavaintoja. Aineisto oli päiväkohtaista. Vuositasolla ilmastomallit ovat pääsääntöisesti sademäärää yliennustavia, mutta harha vaihtelee alueiden ja vuodenaikojen kesken. Osa tästä harhasta selittyy kuitenkin sillä, että havaintoaineistoihin sisältyy tyypillisesti sademäärän mittaustapahtumasta aiheutuva virhe. Alueellisten simulaatioiden harha pyritään minimoimaan kun halutaan kvantifioida tulevaisuuden sademääriä ilmastomallitulosten avulla. Tutkimuksessa sovellettiin tähän tarkoitettua empiiristä korjausmenetelmää tapauskohtaisella testialueella Suomessa. Korjausmenetelmä huomioi sadetapahtumien harhan niiden intensiteetin mukaan, jolloin se periaatteessa soveltuu paremmin myös rankkasateiden korjaamiseen. Korjausmenetelmässä harhan riippuvuus sadetapahtuman intensiteetistä oletetaan skenaariojaksolla samaksi kuin vertailujaksolla. Edellytyksenä korjausmenetelmän käytölle on se, että sadetapahtumien intensiteettijakauma simulaatioaineistoissa on kohtuullisen lähellä havaittua jakaumaa. Korjausmenetelmä parantaa sademäärän vuodenaikaiskeskiarvoja tarkastelualueella vertailujaksolla, vuoden kokonaissadekertymän harhan suuruus aineiston keskiarvossa on vain 7 mm. Koska sadetapahtumien intensiteettijakauma muuttuu simulaatioissa vertailu- ja skenaariojaksojen välillä, korjausmenetelmä vaikuttaa kuitenkin sademäärän muutoksen suuruuteen. Lisäksi menetelmän vaikutus sademäärän muutokseen jakautuu epätasaisesti sadetapahtuman intensiteetistä riippuen: menetelmä pienentää rankkasateiden kertymien muutosta, mutta kasvattaa sitä tavallisten sadetapahtumien osalta. Rankkasadetapahtumien erilliskäsittely korjausmenetelmässä aiheuttaa sen, että korjatusta sadetapahtumien intensiteettijakaumasta tulee epäjatkuva riippumatta siitä, mikä tarkastelujakso on kyseessä. Tässä työssä käytetty korjausmenetelmä ei ole ainoa laatuaan, perinteisesti mallitulosten korjaamiseen on käytetty vakiokertoimiin perustuvaa menetelmää kaikille sadetapahtumille. Korjausmenetelmien testaaminen on monien sovellusten kannalta tärkeää, mutta parhaan menetelmän löytäminen ei ole yksiselitteisen helppoa. Globaaleihin malleihin verrattuna alueellisten ilmastomallien ja korjausmenetelmien käyttö aiheuttavat molemmat ylimääräisen epävarmuuslähteen ilmastosimulaatioihin.
Resumo:
Proteiinit ovat elämälle välttämättömiä orgaanisia yhdisteitä, jotka koostuvat yhdestä tai useammasta aminohappoketjusta. Proteiinien toiminnan määrää niiden kolmiulotteinen rakenne, joka taas riippuu pitkälti proteiinien aminohappojärjestyksestä, sekvenssistä. Proteiinien tunnettujen sekvenssien määrä kasvaa DNA-sekvensoinnin tuloksena selvästi nopeammin kuin selvitettyjen kolmiulotteisten rakenteiden, konformaatioiden, määrä. Proteiinien rakenteitakin tunnetaan jo lähes 45 000, joten niiden tilastollisella analyysillä on yhä merkittävämpi osuus uusien proteiinien rakenteen määrittämisessä, ennustamisessa ja suunnittelussa. Työssä etsittiin pentapeptidejä (viiden aminohapon pituisia ketjuja), joilla on sama konformaatio kaikissa tunnetuissa proteiinien rakenteissa. Näitä rakennuspalikoita voisi käyttää suoraviivaisessa proteiinien suunnittelussa halutun kolmiulotteisen rakenteen aikaansaamiseksi. Aineistona käytettiin proteiinitietopankin joulukuussa 2007 sisältämiä rakenteita, joihin kuului lähes 45 000 proteiinin kolmiulotteista rakennetta. Aineiston laajuuden takia rakennuspalikoita etsittiin kahdessa vaiheessa vertailemalla pentapeptidien rakenteen keskeisten atomien (CA, CB, O, C ja N) sijaintia proteiinien aminohappoketjuissa. Työssä löytyi yli 9000 rakennuspalikkaa, pentapeptidiä, joista jokaisella oli sama konformaatio yli 12 eri rakennetiedostossa, niissä ilmoitettujen tarkkuuksien rajoissa. Löydetyistä rakennuspalikoista 48:lla oli täysin sama konformaatio kaikkialla, mistä ne löydettiin. Näistä useimmin esiintyneitä voi käyttää suoraan proteiinien rakenneanalyysissä valmiina kolmiulotteisen rakenteen osina. Eri konformaatioihin laskostuvia identtisiä pentapeptidejä löytyi yli 266 000 kappaletta. Rakennuspalikoiden stabiiliudesta johtuen ne saattavat olla tärkeitä proteiinien fysikaalisen mallinnuksen tutkimus- ja vertailukohteina. Käytännön kannalta työn lupaavin tulos oli se, että rakennuspalikoita löytyi eri vasta-aineiden rakennetiedostoista. Ehkäpä juuri vasta-aineita voitaisiin suunnitella työssä esitetyillä menetelmillä.
Resumo:
Tietokonetomografiatutkimusten (TT-tutkimusten) määrä on kasvussa, ja niistä aiheutuu merkittävä osa röntgentutkimusten väestölle aiheuttamasta kollektiivisesta annoksesta. Jotta potilaan saama säteilyannos voitaisiin määrittää tarkasti, luotettavasti ja vertailukelpoisesti, mittalaitteet on kalibroitava kansainväliseen mittausjärjestelmään jäljittyvällä tavalla käyttä-en sovittuja standardisäteilylaatuja. TT-laitteen annosmittauksissa käytetään erityisiä pitkiä sylinterin mallisia ionisaatiokammiota (TT-kammio eli DLP-kammio), joilla mitataan ilma-kerman ja pituuden tuloa. TT-kammioidenkalibrointiin ei ole ollut vakiintunutta menettelyä Säteilyturvakeskuksessa (STUK) eikä yleisesti hyväksyttyä kansainvälistä ohjetta. STUK osallistuu Kansainvälisen atomienergiajärjestön IAEA:n ohjeluonnoksen (2005) koekäyttöön. Tässä työssä oli tarkoitus testata ohjeessa esitettyä TT-kammioiden kalibrointimenetelmää sekä aikaisemmin julkaistuja menetelmiä, kehittää niiden pohjalta STUKille oma kalibrointikäytäntö ja testata sen toimintaa. Työssä tarkasteltiin erilaisia kalibrointimenetelmiä ja TT-kammion toimintaa. Mittausten perusteella päädyttiin menettelyyn, jossa kalibrointi suoritetaan mittaamalla TT-kammion vastetta kolmella erilevyisellä säteilykeilan lisärajoittimen aukolla. Kammion vasteen tasai-suutta voidaan lisäksi tutkia 1 cm:n levyisellä aukolla. Kalibrointikerroin saadaan vertaamal-la kalibroitavalla TT-kammiolla mitattuja tuloksia vertailumittarilla (mittanormaalilla) saa-tuihin tuloksiin. TT-kammion kalibroinnissa vertailumittari on sylinteri-ionisaatiokammio. Jos halutaan arvioida kalibroitavan TT-kammion efektiivistä pituutta, on kammion kalib-rointikerroin laskettava myös TT-kammiolla avokentässä tehtyjen mittausten perusteella. Työssä esitellyllä menetelmällä saadun kalibrointikertoimen kokonaisepävarmuus on 2,4 %. TT-laitteen annosmittaustilanteessa yksinkertaisinta on arvioida sopiva kalibrointikerroin pelkän putkijännitteen avulla, joka nostaa kalibrointikertoimesta tulokseen aiheutuvat kokonaisepävarmuuden 4,7 prosenttiin, sillä kalibrointikerroin riippuu sekä röntgenputken jännitteestä että säteilyn suodatuksesta.
Resumo:
The aim of this work was the assessment about the structure and use of the conceptual model of occlusion in operational weather forecasting. In the beginning a survey has been made about the conceptual model of occlusion as introduced to operational forecasters in the Finnish Meteorological Institute (FMI). In the same context an overview has been performed about the use of the conceptual model in modern operational weather forecasting, especially in connection with the widespread use of numerical forecasts. In order to evaluate the features of the occlusions in operational weather forecasting, all the occlusion processes occurring during year 2003 over Europe and Northern Atlantic area have been investigated using the conceptual model of occlusion and the methods suggested in the FMI. The investigation has yielded a classification of the occluded cyclones on the basis of the extent the conceptual model has fitted the description of the observed thermal structure. The seasonal and geographical distribution of the classes has been inspected. Some relevant cases belonging to different classes have been collected and analyzed in detail: in this deeper investigation tools and techniques, which are not routinely used in operational weather forecasting, have been adopted. Both the statistical investigation of the occluded cyclones during year 2003 and the case studies have revealed that the traditional classification of the types of the occlusion on the basis of the thermal structure doesn t take into account the bigger variety of occlusion structures which can be observed. Moreover the conceptual model of occlusion has turned out to be often inadequate in describing well developed cyclones. A deep and constructive revision of the conceptual model of occlusion is therefore suggested in light of the result obtained in this work. The revision should take into account both the progresses which are being made in building a theoretical footing for the occlusion process and the recent tools and meteorological quantities which are nowadays available.
Resumo:
Our present-day understanding of fundamental constituents of matter and their interactions is based on the Standard Model of particle physics, which relies on quantum gauge field theories. On the other hand, the large scale dynamical behaviour of spacetime is understood via the general theory of relativity of Einstein. The merging of these two complementary aspects of nature, quantum and gravity, is one of the greatest goals of modern fundamental physics, the achievement of which would help us understand the short-distance structure of spacetime, thus shedding light on the events in the singular states of general relativity, such as black holes and the Big Bang, where our current models of nature break down. The formulation of quantum field theories in noncommutative spacetime is an attempt to realize the idea of nonlocality at short distances, which our present understanding of these different aspects of Nature suggests, and consequently to find testable hints of the underlying quantum behaviour of spacetime. The formulation of noncommutative theories encounters various unprecedented problems, which derive from their peculiar inherent nonlocality. Arguably the most serious of these is the so-called UV/IR mixing, which makes the derivation of observable predictions especially hard by causing new tedious divergencies, to which our previous well-developed renormalization methods for quantum field theories do not apply. In the thesis I review the basic mathematical concepts of noncommutative spacetime, different formulations of quantum field theories in the context, and the theoretical understanding of UV/IR mixing. In particular, I put forward new results to be published, which show that also the theory of quantum electrodynamics in noncommutative spacetime defined via Seiberg-Witten map suffers from UV/IR mixing. Finally, I review some of the most promising ways to overcome the problem. The final solution remains a challenge for the future.
Resumo:
The efforts of combining quantum theory with general relativity have been great and marked by several successes. One field where progress has lately been made is the study of noncommutative quantum field theories that arise as a low energy limit in certain string theories. The idea of noncommutativity comes naturally when combining these two extremes and has profound implications on results widely accepted in traditional, commutative, theories. In this work I review the status of one of the most important connections in physics, the spin-statistics relation. The relation is deeply ingrained in our reality in that it gives us the structure for the periodic table and is of crucial importance for the stability of all matter. The dramatic effects of noncommutativity of space-time coordinates, mainly the loss of Lorentz invariance, call the spin-statistics relation into question. The spin-statistics theorem is first presented in its traditional setting, giving a clarifying proof starting from minimal requirements. Next the notion of noncommutativity is introduced and its implications studied. The discussion is essentially based on twisted Poincaré symmetry, the space-time symmetry of noncommutative quantum field theory. The controversial issue of microcausality in noncommutative quantum field theory is settled by showing for the first time that the light wedge microcausality condition is compatible with the twisted Poincaré symmetry. The spin-statistics relation is considered both from the point of view of braided statistics, and in the traditional Lagrangian formulation of Pauli, with the conclusion that Pauli's age-old theorem stands even this test so dramatic for the whole structure of space-time.