16 resultados para optimising compilers
em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland
Resumo:
Abstract
Resumo:
Tämän diplomityön oleellisempana tavoitteena oli tutkia ioninvaihtohartsien pitkäaikaista toiminnallista lämpötilakestävyyttä kirjallisuustutkimuksin ja kuormituskokein. Lisaksi työssä optimoitiin taloudellisesti ja teknisesti paras kytkentävaihtoehto soodakattilan lauhteenpuhdistuslaitokselle. Tässä diplomityössä selvitettiin myös soodakattilan ulospuhallusveden sisältämien veden jälkiannostelukemikaalien ja epäpuhtauksien vaikutusta ioninvaihtohartsien vanhenemiseen.; Ioninvaihtohartsien lämpötilakestävyyteen liittyvät koeajot suoritettiin Stora Enso Laminating Papers Oy Kotkan tehtaalla. Koeajoja varten oli erikseen suunniteltu koeajolaitteisto, jossa lauhdenäytettä puhdistettiin patruunasuotimella ja sekavaihtimella. Sekavaihtimessa käytettiin vahvoja anioni- ja kationihartseja. Koeajoja oli yhteensä neljäkappaletta ja niissä tutkittiin hartsien lämpötilakestävyyttä ja anionihartsin silikaatti-vuodon riippuvuutta lämpötilasta. Lämpötilakestävyyskoeajoissa käytetyt hartsit lähetettiin Rohm and Haasille analysoitavaksi. Lopulta koeajojen tuloksia verrattiin kirjallisuudessa esitettyihin aikaisempiin tutkimuksiin. Lauhteenpuhdistuslaitoksen kytkentävaihtoehtojen optimoinnissa käytettiin apuna Kotkan ja UPM-Kymmene Oyj Pietarsaaren tehtaiden kokemuksia. Kytkentävaihtoehtojen energiataseet laskettiin kuudelle eri laitokselle, joiden syöttöveden virtaukset olivat 37 -180 kg/s. Lisaksi selvitettiin kytkentävaihtoehtojen investointikustannukset ja kertakäyttöhartsien vuotuiset kustannukset laitokselle, jossa syöttöveden virtaus oli 67 kg/s. Ulospuhalluksen talteenottojärjestelmän energiataseet laskettiin kuudelle eri laitokselle, joiden syöttöveden virtaukset olivat 37 - 180 kg/s. Laskelmien lähtökohtana käytettiin kunkin soodakattilan ulospuhallusveden määriä, jotka selvitettiin tehdasvierailujen yhteydessä. Ulospuhallusveden epäpuhtauksien ja jälkiannostelukemikaalien pitoisuudet arvioitiin kattilaveden perusteella. Aikaisempien kokemusten perusteella arvioitiin, että ulospuhallusvesi johdettaisiin lisäveden valmistukseen ennen suolanpoistosarjoja. loninvaihtohartsien kuormituskokeiden ja kirjallisuustutkimusten perusteella oli selkeästi nähtävissä, että etenkin anionihartsin kapasiteetti heikkeni nopeasti lämpötilan ollessa yli 60 °C. Kationihartsin suolanpoistolle kriittinen lämpötilaraja on 100 °C.Lisäksi yli 60 °C:ssa anionihartsi ei pysty poistamaan silikaattia lauhteesta. Seuraavaksi on esitelty lauhteenpuhdistuslaitoksen optimikytkentävaihtoehdot sekä vanhoille että uusille laitoksille. Vanhalle laitokselle, jossa lauhteet on puhdistettu aikaisemmin mekaanisella suotimella ja lisäveden puhdistuksessa on käytetty sekavaihdinta, paras kytkentävaihto on erilliset sekavaihtimet lauhteelle ja lisävedelle. Uudelle ja vanhalle laitokselle, jossa lauhteet on puhdistettu aikaisemmin mekaanisella suotimella ja lisäveden puhdistuksessa ei ole käytetty sekavaihdinta, paras kytkentävaihto on yhteiset sekavaihtimet lauhteelle ja lisävedelle. Lauhteen puhdistuksessa käytetyt sekavaihtimen toimintalämpötila on 45 °C molemmissa kytkentävaihtoehdoissa. Kertakäyttöhartsien käyttö osoittautui suuressa mittakaavassa kannattamattomaksi. Tämä asia tarvinnee kuitenkin jatkotutkimuksia. Ulospuhallusveden talteenotolla saadaan energiasäästöä 6-53 k¤/a riippuenlaitoksesta. Etenkin soodakattilalaitoksissa, joissa soodakattila ja vedenkäsittelylaitos sijaitsevat lähellä toisiaan, kannattaa ulospuhallusvesi johtaa lisäveden valmistukseen. Jos edellä mainittujen laitosten etäisyydet kasvavat, saattavat ulospuhallusjärjestelmän investointi-kustannukset nousta kohtuuttoman suureksi. Tämä työ osoitti myös, että ulospuhallusveden epäpuhtauksilla ei ole merkittävää vaikutusta kemiallisesti puhdistetun veden laatuun ennen suolanpoistolaitosta ja ioninvaihtohartsien vanhenemiseen.
Resumo:
VALOSADE (Value Added Logistics in Supply and Demand Chains) is the research project of Anita Lukka's VALORE (Value Added Logistics Research) research team inLappeenranta University of Technology. VALOSADE is included in ELO (Ebusiness logistics) technology program of Tekes (Finnish Technology Agency). SMILE (SME-sector, Internet applications and Logistical Efficiency) is one of four subprojects of VALOSADE. SMILE research focuses on case network that is composed of small and medium sized mechanical maintenance service providers and global wood processing customers. Basic principle of SMILE study is communication and ebusiness insupply and demand network. This first phase of research concentrates on creating backgrounds for SMILE study and for ebusiness solutions of maintenance case network. The focus is on general trends of ebusiness in supply chains and networksof different industries; total ebusiness system architecture of company networks; ebusiness strategy of company network; information value chain; different factors, which influence on ebusiness solution of company network; and the correlation between ebusiness and competitive advantage. Literature, interviews and benchmarking were used as research methods in this qualitative case study. Networks and end-to-end supply chains are the organizational structures, which can add value for end customer. Information is one of the key factors in these decentralized structures. Because of decentralization of business, information is produced and used in different companies and in different information systems. Information refinement services are needed to manage information flows in company networksbetween different systems. Furthermore, some new solutions like network information systems are utilised in optimising network performance and in standardizingnetwork common processes. Some cases have however indicated, that utilization of ebusiness in decentralized business model is not always a necessity, but value-add of ICT must be defined case-specifically. In the theory part of report, different ebusiness and architecture models are introduced. These models are compared to empirical case data in research results. The biggest difference between theory and empirical data is that models are mainly developed for large-scale companies - not for SMEs. This is due to that implemented network ebusiness solutions are mainly large company centered. Genuine SME network centred ebusiness models are quite rare, and the study in that area has been few in number. Business relationships between customer and their SME suppliers are nowadays concentrated more on collaborative tactical and strategic initiatives besides transaction based operational initiatives. However, ebusiness systems are further mainly based on exchange of operational transactional data. Collaborative ebusiness solutions are in planning or pilot phase in most case companies. Furthermore, many ebusiness solutions are nowadays between two participants, but network and end-to-end supply chain transparency and information systems are quite rare. Transaction volumes, data formats, the types of exchanged information, information criticality,type and duration of business relationship, internal information systems of partners, processes and operation models (e.g. different ordering models) differ among network companies, and furthermore companies are at different stages on networking and ebusiness readiness. Because of former factors, different customer-supplier combinations in network must utilise totally different ebusiness architectures, technologies, systems and standards.
Resumo:
The building industry has a particular interest in using clinching as a joining method for frame constructions of light-frame housing. Normally many clinch joints are required in joining of frames.In order to maximise the strength of the complete assembly, each clinch joint must be as sound as possible. Experimental testing is the main means of optimising a particular clinch joint. This includes shear strength testing and visual observation of joint cross-sections. The manufacturers of clinching equipment normally perform such experimental trials. Finite element analysis can also be used to optimise the tool geometry and the process parameter, X, which represents the thickness of the base of the joint. However, such procedures require dedicated software, a skilled operator, and test specimens in order to verify the finite element model. In addition, when using current technology several hours' computing time may be necessary. The objective of the study was to develop a simple calculation procedure for rapidly establishing an optimum value for the parameter X for a given tool combination. It should be possible to use the procedure on a daily basis, without stringent demands on the skill of the operator or the equipment. It is also desirable that the procedure would significantly decrease thenumber of shear strength tests required for verification. The experimental workinvolved tests in order to obtain an understanding of the behaviour of the sheets during clinching. The most notable observation concerned the stage of the process in which the upper sheet was initially bent, after which the deformation mechanism changed to shearing and elongation. The amount of deformation was measured relative to the original location of the upper sheet, and characterised as the C-measure. By understanding in detail the behaviour of the upper sheet, it waspossible to estimate a bending line function for the surface of the upper sheet. A procedure was developed, which makes it possible to estimate the process parameter X for each tool combination with a fixed die. The procedure is based on equating the volume of material on the punch side with the volume of the die. Detailed information concerning the behaviour of material on the punch side is required, assuming that the volume of die does not change during the process. The procedure was applied to shear strength testing of a sample material. The sample material was continuously hot-dip zinc-coated high-strength constructional steel,with a nominal thickness of 1.0 mm. The minimum Rp0.2 proof stress was 637 N/mm2. Such material has not yet been used extensively in light-frame housing, and little has been published on clinching of the material. The performance of the material is therefore of particular interest. Companies that use clinching on a daily basis stand to gain the greatest benefit from the procedure. By understanding the behaviour of sheets in different cases, it is possible to use data at an early stage for adjusting and optimising the process. In particular, the functionality of common tools can be increased since it is possible to characterise the complete range of existing tools. The study increases and broadens the amount ofbasic information concerning the clinching process. New approaches and points of view are presented and used for generating new knowledge.
Resumo:
This research has been focused at the development of a tuned systematic design methodology, which gives the best performance in a computer aided environment and utilises a cross-technological approach, specially tested with and for laser processed microwave mechanics. A tuned design process scheme is also presented. Because of the currently large production volumes of microwave and radio frequency mechanics even slight improvements of design methodologies or manufacturing technologies would give reasonable possibilities for cost reduction. The typical number of required iteration cycles could be reduced to one fifth of normal. The research area dealing with the methodologies is divided firstly into a function-oriented, a performance-oriented or a manufacturability-oriented product design. Alternatively various approaches can be developed for a customer-oriented, a quality-oriented, a cost-oriented or an organisation-oriented design. However, the real need for improvements is between these two extremes. This means that the effective methodology for the designers should not be too limited (like in the performance-oriented design) or too general (like in the organisation-oriented design), but it should, include the context of the design environment. This is the area where the current research is focused. To test the developed tuned design methodology for laser processing (TDMLP) and the tuned optimising algorithm for laser processing (TOLP), seven different industrial product applications for microwave mechanics have been designed, CAD-modelled and manufactured by using laser in small production series. To verify that the performance of these products meets the required level and to ensure the objectiveness ofthe results extensive laboratory tests were used for all designed prototypes. As an example a Ku-band horn antenna can be laser processed from steel in 2 minutes at the same time obtaining a comparable electrical performance of classical aluminium units or the residual resistance of a laser joint in steel could be limited to 72 milliohmia.
Resumo:
Diplomityössä tehdään perusselvitys olemassaolevista tiedonsiirtotekniikoista, joita voidaan käyttää teollisuusympäristössä. Tiedonsiirtojärjestelmiä tarvitaan teollisuuden prosessien ja laitteiden ohjauksessa monessa eri tasossa. Ylemmän tason tiedonsiirtoväyliin kuuluu esimerkiksi taloushallinnan talousväylä, jota pitkin tapahtuu operatiivista tiedonsiirtoa. Operatiivinen tiedonsiirto koostuu tuotantotiedonsiirrosta ja koneiden toimintaan liittyvien tietojen siirrosta. Tavoitteena on tuotannon tehostaminen sekä logistiikan ja koneiden käytettävyyden parantaminen. Alemman tason väyliin kuuluu käyttöväylä, joka voi koostua useammasta osaväylästä: tehdasväylästä, prosessiväylästä ja kenttäväylästä. Ohjaustiedonsiirto ja laitteiden välinen tiedonsiirto tapahtuu käyttöväylää pitkin. Tiedonsiirtoa tapahtuu myös laitteiden sisäisesti. Työn alkuosassa esitellään laitteita, joiden välillä voidaan tarvita tiedonsiirtoyhteyttä ja vaatimuksia, joita teollisuusympäristö asettaa tiedonsiirtoyhteyksille. Työssä esitellään teollisuusympäristöön soveltuvien tiedonsiirtotekniikoiden ominaisuuksia ja sovelluksia. Eri tiedonsiirtoyhteyksien toteuttamiseen sopivien tiedonsiirtojärjestelmien valintaa käsitellään esimerkkien valossa. Työssä esitellään myös esimerkkilaitteisto, jonka avulla tutkitaan pienjännitteisen sähköverkon soveltuvuutta tiedonsiirtoon. Työssä esitetään yhteenveto siitä, millä tiedonsiirtotekniikoilla eri laitteiden välinen tiedonsiirto on toteutettavissa ja pohditaan uusien tiedonsiirtotekniikoiden tarjoamia mahdollisuuksia ja niiden käyttöön liittyviä vaatimuksia.
Resumo:
Markkinauudistuksen myötä sähkökauppa pörssin kautta on lisääntynyt voimakkaasti ja tukkusähkölle on muodostunut yleisesti tunnustettu markkinahinta. Pörssikauppaan sisältyy monia riskejä, joiden hallinta on pörssikauppaa harjoittavan osapuolen toiminnan edellytys. Tukkusähkön hinnan markkinaehtoinen määräytyminen ja pörssikaupan riskit ovat muuttaneet sähkön vähittäismyynnin hinnoittelutarpeita. Työssä esitetään markkinaehtoinen hinnoittelumenetelmä, jossa markkinahinta-, aluehinta- ja profiiliriskit otetaan huomioon. Erityisesti tutkitaan hinnoittelussa vaikeimmin huomioitavissa olevan profiiliriskin muodostumista ja esitetään menetelmä sen hallintaan. Lisäksi esitetään menetelmät suojaustason optimointiin ja suojaustuotteiden toimitusjaksoista poikkeavan sähköntoimituksen hinnoitteluun. Kilpaillussa ympäristössä pärjää parhaiten se, joka toimii kustannustehokkaimmin ja hallitsee riskinsä parhaiten. Työn lopuksi esitetään kuinka myyntisopimuskannan salkuttamista voidaan käyttää hyväksi näihin tavoitteisiin pyrittäessä.
Resumo:
Diplomityössä mallinnetaan numeerisesti radiaalikompressorin spiraalin virtaus. Spiraalin tarkoituksena radiaalikompressorissa on kerätä tasaisesti virtaus diffuusorin kehältä. Spiraaliin on viime aikoina kiinnitetty enemmän huomiota, koska on havaittu, että kompressorin hyötysuhdetta voidaan parantaa spiraalia optimoimalla. Spiraalin toimintaa tarkastellaan kolmella eri massavirralla. Työn alussa käsitellään spiraalin toimintaperiaatteita. Numeerisena ratkaisijana käytetään Teknillisessä korkeakoulussa kehitettyä FIN-FLO -koodia. FINFLO -laskentaohjelmassa ratkaistaan Navier-Stokes yhtälöt kolmeulotteiselle laskenta-alueelle. Diskretointi perustuu kontrollitilavuus menetelmään. Työssä käsitellään laskentakoodin toimintaperiaatteitta. Turbulenssia mallinnetaan algebrallisella Baldwin-Lomaxin ja kahden yhtälön Chienin k-e turbulenssimalleilla. Laskentatuloksia verrataan Lappeenrannan teknillisessä korkeakoulussa tehtyihin mittauksiin kyseessä olevasta kompressorin spiraalista. Myös eri turbulenssimalleilla ja hilatasoilla saatuja tuloksia verrataan keskenään. Laskentatuloksien jälkikäsittelyä varten ohjelmoitiin neljä eri tietokoneohjelmaa. Laskennalla pyritään saamaan lisäselvyyttä virtauksen käyttäytymiseen spiraalissa ja erityisesti ns. kielen alueella. Myös kahden eri turbulenssimallin toimivuutta kompressorin numeerisessa mallinnuksessa tutkitaan.
Resumo:
Diplomityössä esitetään toimintamalleja avoimen sähköntoimituksen ja markkinasähkön (spot-sähkö) välitykselle. Työn alkuosassa selvitetään sähkömarkkinoiden kehitystä ja sähkön pörssikaupan rakennetta pohjoismaisella markkina-alueella sekä tarkastellaan tasehallintaan, taseselvitykseen ja tietojen raportointiin liittyviä periaatteita Suomessa, erityisesti tasevastaavan kannalta katsottuna. Työssä kuvataan tiivistetysti yhteisomisteisten voimalaitosten yhteisajojärjestelyä, sähköntuotannon ja -hankinnan optimointia sekä tasehallintaa. Työn lopussa luodaan katsaus muiden Pohjoismaiden sekä Saksan sähkömarkkinoiden toimintaperiaatteisiin, taseselvitykseen, tasehallintaan ja tietojen raportointiin. Katsauksessa pyritään luomaan kuva toimintaperiaatteista, joiden perusteella suomalainen yhtiö voisi tulevaisuudessa laajentaa toimintaansa ulkomaille joko pelkkänä palvelujen tarjoajana tai myös tasevastaavana markkinaosapuolena.
Resumo:
Metsäteollisuuden kaatopaikoille läjitetään vuosittain jätteitä yli 400 000 kuiva-ainetonnia. Pääosa jätteestä on peräisin kemiallisen massan valmistuksesta sekä energiantuotannosta. Kaatopaikoille läjitetyn jätteen laatu on muuttunut huomattavasti vuosikymmenien kuluessa. Aikaisemmin kaatopaikoille on läjitetty runsain määrin bioperäistä jätettä, joka anaerobisesti hajotessaan aiheuttaa nykyisin huomattavia biokaasupäästöjä. Inerttien, biohajoamattomien ainesten osuus metsäteollisuuden kaatopaikoille läjitettävän jätteen määrästä on tällä hetkellä noin 75 % ja niiden osuus tullee kasvamaan edelleen. Metsäteollisuuden kaatopaikkakuormitusta pyritään tulevaisuudessa vähentämään prosesseja tehostamalla sivutuotteiden hyötykäyttömahdollisuuksia lisäämällä. Vuonna 1997 voimaan tulleen valtioneuvoston päätöksen mukaan kaatopaikoilla muodostuva biokaasu tulee kerätä ja käsitellä. Tämä koskee kaikkia kaatopaikkoja. Lainsäädäntö antaa kuitenkin mahdollisuuden toteuttaa nämä vaatimukset hieman eri tavoin kaatopaikkojen yksilölliset erot huomioiden. Tässä diplomityössä on kartoitettu voimassaolevaa kaatopaikkalainsäädäntöä ja siinä lähivuosina mahdollisesti tapahtuvia muutoksia. Työssä on esitelty metsäteollisuuden kaatopaikoilla syntyvien päästöjen syntymekanismit ja vertailtu päästöjen hallinnassa käytettäviä vaihtoehtoisia tekniikoita. Tässä työssä on erityisesti keskitytty kaatopaikoilla syntyviin kaasumaisiin päästöihin sekä vertailtu kaasumaisten päästöjen aktiivista ja passiivista käsittelyä. Biokaasun passiivisen käsittelyjärjestelmän aiheuttamat investointi- ja käyttökustannukset ovat vain murto-osa aktiivisen järjestelmän vastaavista kustannuksista. Diplomityön kokeellisessa osuudessa mitattiin erään passiivisen biokaasunkäsittelyjärjestelmän toimivuutta. Saatujen mittaustulosten mukaan biokaasun sisältämä metaani hapettui lähes täysin metrin paksuisessa kuorikerroksessa. Kaasunjakoa parantamalla voidaan kuoripatjan metaaninhapetustehokkuutta vielä hieman nostaa. Mittaustulosten mukaan biokaasun passiivinen käsittely toimii kyseisessä rakenteessa ja on siten varteenotettava vaihtoehto aktiivisille biokaasunkeräily- ja käsittelyjärjestelmille.
Resumo:
Diplomityön tavoitteena on selvittää paperivioista aiheutuvien katkojen syyt paperikoneella ja pyrkiä löytämään ratkaisu ongelmiin erilaisia vianilmaisujärjestelmiä apuna käyttäen. Työssä analysoidaan laatuhylyn synty tuotantolinjan eri kohteissa. Lisäksi tilastoidaan häiriöseisokkisyyt ja sitä kautta pyritään painottamaan kunnossa-pidon tärkeyttä tuotantolinjan tehokkuudessa. Kirjallisuusosassa tutustutaan hyötysuhteen määritelmään ja käsitellään tuotantolinjan hyötysuhteeseen vaikuttavia tekijöitä. Kirjallisuusosassa selvitetään päällystetyn hienopaperin tuoteanalyysin avulla ominaisuudet, joilla on vaikutusta ajettavuuteen ja katkoherkkyyteen on-line päällystävällä hienopaperikoneella. Kokeellisessa osassa selvitetään tuotantoaikaa vähentävien tekijöiden syyt ja mahdolli-set aiheuttajat erilaisten vikaprofiilien avulla. Kokeellisessa osassa analysoidaan myös tuotantolinjan hylyn syntyyn vaikuttavat tekijät ja pyritään minimoimaan hylyn määrä. Pohjapaperin täplät aiheuttivat reikäkatkoja ja hylyn syntymistä kalanterin aukaisujen takia. Reunaviat ja kireysheitot aiheuttivat myös runsaasti katkoja. Lukuisat häiriöseisokit aiheuttivat aikahävikkiä. Häiriöseisokkeja aiheuttivat viat mekaanisissa laitteissa, narujen vaihdot ja rullausruuhkat. Telasuojelun aiheuttamat kalanterin aukaisut olivat työn alussa suurin paperin hylkäyssyy. Telasuojelun optimoinnin ja pohjapaperin täplien määrän vähenemisen myötä telasuojeluaukaisut vähenivät. Lajinvaihdot ja katkot olivat suurimmat hylyn aiheuttajat työn loppuaikana.
Resumo:
Coating and filler pigments have strong influence to the properties of the paper. Filler content can be even over 30 % and pigment content in coating is about 85-95 weight percent. The physical and chemical properties of the pigments are different and the knowledge of these properties is important for optimising of optical and printing properties of the paper. The size and shape of pigment particles can be measured by different analysers which can be based on sedimentation, laser diffraction, changes in electric field etc. In this master's thesis was researched particle properties especially by scanning electron microscope (SEM) and image analysis programs. Research included nine pigments with different particle size and shape. Pigments were analysed by two image analysis programs (INCA Feature and Poikki), Coulter LS230 (laser diffraction) and SediGraph 5100 (sedimentation). The results were compared to perceive the effect of particle shape to the performance of the analysers. Only image analysis programs gave parameters of the particle shape. One part of research was also the sample preparation for SEM. Individual particles should be separated and distinct in ideal sample. Analysing methods gave different results but results from image analysis programs corresponded even to sedimentation or to laser diffraction depending on the particle shape. Detailed analysis of the particle shape required high magnification in SEM, but measured parameters described very well the shape of the particles. Large particles (ecd~1 µm) could be used also in 3D-modelling which enabled the measurement of the thickness of the particles. Scanning electron microscope and image analysis programs were effective and multifunctional tools for particle analyses. Development and experience will devise the usability of analysing method in routine use.
Resumo:
Data traffic caused by mobile advertising client software when it is communicating with the network server can be a pain point for many application developers who are considering advertising-funded application distribution, since the cost of the data transfer might scare their users away from using the applications. For the thesis project, a simulation environment was built to mimic the real client-server solution for measuring the data transfer over varying types of connections with different usage scenarios. For optimising data transfer, a few general-purpose compressors and XML-specific compressors were tried for compressing the XML data, and a few protocol optimisations were implemented. For optimising the cost, cache usage was improved and pre-loading was enhanced to use free connections to load the data. The data traffic structure and the various optimisations were analysed, and it was found that the cache usage and pre-loading should be enhanced and that the protocol should be changed, with report aggregation and compression using WBXML or gzip.
Resumo:
Antibodies are natural binding proteins produced in vertebrates as a response to invading pathogens and foreign substances. Because of their capability for tight and specific binding, antibodies have found use as binding reagents in research and diagnostics. Properties of cloned recombinant antibodies can be further improved by means of in vitro evolution, combining mutagenesis with subsequent phage display selection. It is also possible to isolate entirely new antibodies from vast naïve or synthetic antibody libraries by phage display. In this study, library techniques and phage display selection were applied in order to optimise binding scaffolds and antigen recognition of antibodies, and to evolve new and improved bioaffinity reagents. Antibody libraries were generated by random and targeted mutagenesis. Expression and stability were mainly optimised by the random methods whereas targeted randomisation of the binding site residues was used for optimising the binding properties. Trinucleotide mutagenesis allowed design of defined randomisation patterns for a synthetic antibody library. Improved clones were selected by phage display. Capture by a specific anti- DHPS antibody was exploited in the selection of improved phage display of DHPS. Efficient selection for stability was established by combining phage display selection with denaturation under reducing conditions. Broad-specific binding of a generic anti-sulfonamide antibody was improved by selection with one of the weakest binding sulfonamides. In addition, p9 based phage display was studied in affinity selection from the synthetic library. A TIM barrel protein DHPS was engineered for efficient phage display by combining cysteinereplacement with random mutagenesis. The resulting clone allows use of phage display in further engineering of DHPS and possibly use as an alternative-binding scaffold. An anti-TSH scFv fragment, cloned from a monoclonal antibody, was engineered for improved stability to better suite an immunoassay. The improved scFv tolerates 8 – 9 °C higher temperature than the parental scFv and should have sufficient stability to be used in an immunoanalyser with incubation at 36 °C. The anti-TSH scFv fragment was compared with the corresponding Fab fragment and the parental monoclonal antibody as a capturing reagent in a rapid 5-min immunoassay for TSH. The scFv fragment provided some benefits over the conventionally used Mab in anayte-binding capacity and assay kinetics. However, the recombinant Fab fragment, which had similar kinetics to the scFv, provided a more sensitive and reliable assay than the scFv. Another cloned scFv fragment was engineered in order to improve broad-specific recognition of sulfonamides. The improved antibody detects different sulfonamides at concentrations below the maximum residue limit (100 μg/kg in EU and USA) and allows simultaneous screening of different sulfonamide drug residues. Finally, a synthetic antibody library was constructed and new antibodies were generated and affinity matured entirely in vitro. These results illuminate the possibilities of phage display and antibody engineering for generation and optimisation of binding reagents in vitro and indicate the potential of recombinant antibodies as affinity reagents in immunoassays.
Resumo:
Statistical analyses of measurements that can be described by statistical models are of essence in astronomy and in scientific inquiry in general. The sensitivity of such analyses, modelling approaches, and the consequent predictions, is sometimes highly dependent on the exact techniques applied, and improvements therein can result in significantly better understanding of the observed system of interest. Particularly, optimising the sensitivity of statistical techniques in detecting the faint signatures of low-mass planets orbiting the nearby stars is, together with improvements in instrumentation, essential in estimating the properties of the population of such planets, and in the race to detect Earth-analogs, i.e. planets that could support liquid water and, perhaps, life on their surfaces. We review the developments in Bayesian statistical techniques applicable to detections planets orbiting nearby stars and astronomical data analysis problems in general. We also discuss these techniques and demonstrate their usefulness by using various examples and detailed descriptions of the respective mathematics involved. We demonstrate the practical aspects of Bayesian statistical techniques by describing several algorithms and numerical techniques, as well as theoretical constructions, in the estimation of model parameters and in hypothesis testing. We also apply these algorithms to Doppler measurements of nearby stars to show how they can be used in practice to obtain as much information from the noisy data as possible. Bayesian statistical techniques are powerful tools in analysing and interpreting noisy data and should be preferred in practice whenever computational limitations are not too restrictive.