942 resultados para errors and erasures decoding
Resumo:
Mertaniemen voimalaitoksien prosessitietokone (PTK) on uusittu keväällä 2005. Tämän työn tarkoituksena on ollut auttaa PTK:n virheiden korjaamisessa ja puut-teiden kartoittamisessa. Työssä on keskitytty etenkin prosessiraportoinnin tekemiseen. Työn alussa on kerrottu Mertaniemen voimalaitoksen tekniset tiedot ja PTK:n hankinnan taustatietoja. Uudesta PTK-järjestelmästä on kuvattu laitteisto, sovellus ja perusohjelmistot. PTK:n ja muiden järjestelmien välinen tiedonsiirto on myös kuvattu. PTK muuttujien nimeäminen on esitelty, jotta olisi helpompi hahmottaa työssä käytettyjen positioiden merkityksiä. Prosessiraportoinnin kehittämisessä kuvataan raporttien tarvetta ja niiden sisältöä sekä sitä kuinka raportit on tehty. Päästöraportointi on esitetty omana osa-alueenaan, koska voimalaitosten päästöjen seurantaa edellytetään tehtävän viran¬omaismääräysten ja EU-direktiivien vaatimusten mukaisesti. Raporttien lisäksi prosessiarvojen seuraamista helpottamaan on tehty yhteisiä trendi- ja työtilanäyttöjä. PTK:n ongelmakohtina on käsitelty muuttujien tunnuksissa ja nimissä olevat virheet sekä PTK laskennan tarkastaminen. Muuttujien nimien ja laskennan tarkas¬tusta tehtiin prosessiraportoinnin tekemisen yhteydessä sekä yhteistyössä PTK-järjestelmän toimittaneen Metso Automation Oy:n kanssa. Päästölaskennan korjaaminen oli erityisen tärkeää.
Resumo:
In recent years, an explosion of interest in neuroscience has led to the development of "Neuro-law," a new multidisciplinary field of knowledge whose aim is to examine the impact and role of neuroscientific findings in legal proceedings. Neuroscientific evidence is increasingly being used in US and European courts in criminal trials, as part of psychiatric testimony, nourishing the debate about the legal implications of brain research in psychiatric-legal settings. During these proceedings, the role of forensic psychiatrists is crucial. In most criminal justice systems, their mission consists in accomplishing two basic tasks: assessing the degree of responsibility of the offender and evaluating their future dangerousness. In the first part of our research, we aim to examine the impact of Neuroscientific evidence in the assessment of criminal responsibility, a key concept of law. An initial jurisprudential research leads to conclude that there are significant difficulties and limitations in using neuroscience for the assessment of criminal responsibility. In the current socio-legal context, responsibility assessments are progressively being weakened, whereas dangerousness assessments gain increasing importance in the field of forensic psychiatry. In the second part of our research we concentrate on the impact of using neuroscience for the assessment of dangerousness. We argue that in the current policy era of zero tolerance, judges, confronted with the pressure to ensure public security, may tend to interpret neuroscientific knowledge and data as an objective and reliable way of evaluating one's dangerousness and risk of reoffending, rather than their responsibility. This tendency could be encouraged by a utilitarian approach to punishment, advanced by some recent neuroscientific research which puts into question the existence of free will and responsibility and argues for a rejection of the retributive theory of punishment. Although this shift away from punishment aimed at retribution in favor of a consequentialist approach to criminal law is advanced by some authors as a more progressive and humane approach, we believe that it could lead to the instrumentalisation of neuroscience in the interest of public safety, which can run against the proper exercise of justice and civil liberties of the offenders. By advancing a criminal law regime animated by the consequentialist aim of avoiding social harms through rehabilitation, neuroscience promotes a return to a therapeutical approach to crime which can have serious impact on the kind and the length of sentences imposed on the offenders; if neuroscientific data are interpreted as evidence of dangerousness, rather than responsibility, it is highly likely that judges impose heavier sentences, or/and security measures (in civil law systems), which can be indeterminate in length. Errors and epistemic traps of past criminological movements trying to explain the manifestation of a violent and deviant behavior on a biological and deterministic basis stress the need for caution concerning the use of modern neuroscientific methods in criminal proceedings.
Resumo:
Gram-negative bacteria represent a major group of pathogens that infect all eukaryotes from plants to mammals. Gram-negative microbe-associated molecular patterns include lipopolysaccharides and peptidoglycans, major immunostimulatory determinants across phyla. Recent advances have furthered our understanding of Gram-negative detection beyond the well-defined pattern recognition receptors such as TLR4. A B-type lectin receptor for LPS and Lysine-motif containing receptors for peptidoglycans were recently added to the plant arsenal. Caspases join the ranks of mammalian cytosolic immune detectors by binding LPS, and make TLR4 redundant for septic shock. Fascinating bacterial evasion mechanisms lure the host into tolerance or promote inter-bacterial competition. Our review aims to cover recent advances on bacterial messages and host decoding systems across phyla, and highlight evolutionarily recurrent strategies.
Resumo:
Purpose - This article describes the use of web services to interconnect the GTBib interlibrary loan program with the OCLC WorldShare platform. Design/methodology/approach - We describe the current problem of duplication of procedures in libraries that have added their collections to the OCLC WorldCat catalogue in recent years and are therefore more likely to receive interlibrary loan requests through the WorldShare Platform. Findings - A solution that uses web services to insert and retrieve requests between the two systems is presented. Autonomous agents periodically check the status of the requests and keep them updated and synchronized. These agents also inform the library staff of any variation or inconsistency that is detected. Practical Implications - This technology reduces process management time by making it unnecessary to introduce the request data in both systems. Agents are used to check the consistency of statuses between the two systems, thus avoiding errors and omissions and improving the efficiency of the whole interlibrary loan process. Originality/value - This paper describes in detail the technical aspects of the solution as a reference for the development of future applications.
Resumo:
Four different pseudopotentials and three methodologies were employed in the calculation of the geometry and the frequencies of metal complexes like [M(NH3)2X2] [X=halogen, M=Zn, Cd], and [Hg(NH3)2]Cl2. The vibrational assignments were carefully checked and compared to the theoretically calculated ones. Graphical procedures were employed to estimate family errors and their average behavior. The calculated results show the SBK-X basis set with the best results for the geometries and calculated frequencies, for individual species and statistical results. Its use is recommend, mainly if the neighborhood atoms are described with similar pseudopotentials. Excellent results were also obtained with the Hay and Wadt pseudopotential.
Resumo:
This paper sets out to identify the initial positions of the different decisionmakers who intervene in a group decision making process with a reducednumber of actors, and to establish possible consensus paths between theseactors. As a methodological support, it employs one of the most widely-knownmulticriteria decision techniques, namely, the Analytic Hierarchy Process(AHP). Assuming that the judgements elicited by the decision makers follow theso-called multiplicative model (Crawford and Williams, 1985; Altuzarra et al.,1997; Laininen and Hämäläinen, 2003) with log-normal errors and unknownvariance, a Bayesian approach is used in the estimation of the relative prioritiesof the alternatives being compared. These priorities, estimated by way of themedian of the posterior distribution and normalised in a distributive manner(priorities add up to one), are a clear example of compositional data that will beused in the search for consensus between the actors involved in the resolution ofthe problem through the use of Multidimensional Scaling tools
Resumo:
Comptar amb sistemes sofisticats de gestió o programes ERP (Enterprise Resource Planning) no és suficient per a les organitzacions. Per a què aquests recursos donin resultats adequats i actualitzats, la informació d’entrada ha de llegir-se de forma automàtica, per aconseguir estalviar en recursos, eliminació d’errors i assegurar el compliment de la qualitat. Per aquest motiu és important comptar amb eines i serveis d’identificació automàtica i col•lecció de dades. Els principals objectius a assolir (a partir de la introducció al lector de la importància dels sistemes logístics d’identificació en un entorn global d’alta competitivitat), són conèixer i comprendre el funcionament de les tres principals tecnologies existents al mercat (codis de barres lineals, codis de barres bidimensionals i sistemes RFID), veure en quin estat d’implantació es troba cadascuna i les seves principals aplicacions. Un cop realitzat aquest primer estudi es pretén comparar les tres tecnologies per o poder obtenir perspectives de futur en l’àmbit de l’autoidentificació. A partir de la situació actual i de les necessitats de les empreses, juntament amb el meravellós món que sembla obrir la tecnologia RFID (Radio Frequency Identification), la principal conclusió a la que s’arribarà és que malgrat les limitacions tècniques dels codis de barres lineals, aquests es troben completament integrats a tota la cadena logística gràcies a l’estandarització i la utilització d’un llenguatge comú, sota el nom de simbologies GTIN (Global Trade Item Number), durant tota la cadena de subministres que garanteixen total traçabilitat dels productes gràcies en part a la gestió de les bases de dades i del flux d’informació. La tecnologia RFUD amb l’EPC (Electronic Product Code) supera aquestes limitacions, convertint-se en el màxim candidat per a substituir els limitats codis de barres. Tot i això, RFID, amb l’EPC, no serà un adequat identificador logístic fins que es superin importants barreres, com són la falta d’estandarització i l’elevat cost d’implantació.
Resumo:
Technology scaling has proceeded into dimensions in which the reliability of manufactured devices is becoming endangered. The reliability decrease is a consequence of physical limitations, relative increase of variations, and decreasing noise margins, among others. A promising solution for bringing the reliability of circuits back to a desired level is the use of design methods which introduce tolerance against possible faults in an integrated circuit. This thesis studies and presents fault tolerance methods for network-onchip (NoC) which is a design paradigm targeted for very large systems-onchip. In a NoC resources, such as processors and memories, are connected to a communication network; comparable to the Internet. Fault tolerance in such a system can be achieved at many abstraction levels. The thesis studies the origin of faults in modern technologies and explains the classification to transient, intermittent and permanent faults. A survey of fault tolerance methods is presented to demonstrate the diversity of available methods. Networks-on-chip are approached by exploring their main design choices: the selection of a topology, routing protocol, and flow control method. Fault tolerance methods for NoCs are studied at different layers of the OSI reference model. The data link layer provides a reliable communication link over a physical channel. Error control coding is an efficient fault tolerance method especially against transient faults at this abstraction level. Error control coding methods suitable for on-chip communication are studied and their implementations presented. Error control coding loses its effectiveness in the presence of intermittent and permanent faults. Therefore, other solutions against them are presented. The introduction of spare wires and split transmissions are shown to provide good tolerance against intermittent and permanent errors and their combination to error control coding is illustrated. At the network layer positioned above the data link layer, fault tolerance can be achieved with the design of fault tolerant network topologies and routing algorithms. Both of these approaches are presented in the thesis together with realizations in the both categories. The thesis concludes that an optimal fault tolerance solution contains carefully co-designed elements from different abstraction levels
Resumo:
In this work an analytical methodology for the determination of relevant physicochemical parameters of prato cheese is reported, using infrared spectroscopy (DRIFT) and partial least squares regression (PLS). Several multivariate models were developed, using different spectral regions and preprocessing routines. In general, good precision and accuracy was observed for all studied parameters (fat, protein, moisture, total solids, ashes and pH) with standard deviations comparable with those provided by the conventional methodologies. The implantation of this multivariate routine involves significant analytical advantages, including reduction of cost and time of analysis, minimization of human errors, and elimination of chemical residues.
Resumo:
This article describes an experiment designed to teach quantitative determination in gas chromatography (GC) in Organic and Analytical Chemistry practical classes. The experiment consisted of extracting and analyzing eugenol from clove seeds to perform a quantitative approach aimed at comparing results obtained by external and internal calibration procedures. Therefore, this experiment proved to be very effective tool to enhance students awareness on the need to understand different types of calibration in GC and on how to avoid common experimental errors, and to find the best ways to eliminate their interference during the quantitative analysis phase.
Resumo:
Identification of order of an Autoregressive Moving Average Model (ARMA) by the usual graphical method is subjective. Hence, there is a need of developing a technique to identify the order without employing the graphical investigation of series autocorrelations. To avoid subjectivity, this thesis focuses on determining the order of the Autoregressive Moving Average Model using Reversible Jump Markov Chain Monte Carlo (RJMCMC). The RJMCMC selects the model from a set of the models suggested by better fitting, standard deviation errors and the frequency of accepted data. Together with deep analysis of the classical Box-Jenkins modeling methodology the integration with MCMC algorithms has been focused through parameter estimation and model fitting of ARMA models. This helps to verify how well the MCMC algorithms can treat the ARMA models, by comparing the results with graphical method. It has been seen that the MCMC produced better results than the classical time series approach.
Resumo:
A didactic experiment is proposed aimed to extend the Flow Injection Analysis (FIA) based methodology to the area of physical chemistry/chemical reactors for undergraduate labs. Our prime objective was to describe the use of a gradient chamber for determination of the rate constant for the reaction between crystal violet and the hydroxide ion. The study was complemented by determining the effect of temperature on the rate constant. The kinetic parameters, activation energy and reaction rate constant are determined based on an assumption of rate orders. The main didactic advantages of the proposed experimental set-up are the use of less reagents, contributing to a more environmental friendly experiment. The experiment illustrates also the reduction of associated errors and time by using automated analysis owing to decreased operator manipulation.
Resumo:
Työssä tehtiin ydinvoimalaitoksen suunnitellun alas- ja ylösajon todennäköisyysperus-tainen riskianalyysi. Suunnitellun alasajon analyysi sisälsi Teollisuuden Voima Oyj:n käyttämän vanhan PRA-mallin päivityksen ja laajentamisen. Ylösajon analyysiä varten kehitettiin kokonaan uusi malli. Diplomityöselostuksen alussa on yleinen katsaus luotettavuustekniikan käsitteisiin, pe-rusperiaatteisiin ja työkaluihin. Sitten on esitelty laitostekniikkaa tärkeimpien alas- ja ylösajoihin osallistuvien järjestelmien osalta. Myös normaalit alas- ja ylösajotoimenpi-teet on kuvattu. Yleisen teoriaosuuden jälkeen on keskitytty uusien mallien muodosta-miseen. Työssä käytetyt oletukset ja arviot on esitelty perusteluineen. Uudet tapahtuma- ja vikapuut sekä niiden perusteella lasketut sydänvaurioriskit johtopäätöksineen on käy-ty läpi selostuksen lopussa. Alkutapahtumataajuuksien määrittäminen tehtiin vikapuiden avulla, joissa huomioitiin komponenttivikojen, inhimillisten virheiden ja ulkoisten tekijöiden vaikutus. Aiemmin alkutapahtumat oli määritetty pääasiassa käyttöhistorian perusteella. Uusi määrittelytapa antaa eri vikaantumistapojen välille paremman kuvan niiden keskinäisestä merkitykses-tä sekä paremman päivitettävyyden laitosmuutosten yhteydessä. Mallien avulla voidaan laskea alas- ja ylösajon merkitys kokonaissydänvauriotaajuuteen entistä yksityiskohtaisemmin. Tuloksia voidaan myös hyödyntää laitosten vikatilanteis-sa, kun vertaillaan jatketun käytön ja mahdollisten korjaustöiden vaatiman alas- ja ylösajon riskejä. Uusien mallien antamat tulokset laskivat vain hieman kokonaissydän-vauriotaajuutta, mutta merkittävästi alasajon vaikutusta siihen. Ylösajosta aiheutuva riskinlisä oli noin puolet alasajon riskistä.
Resumo:
Diplomityön tavoitteena oli selvittää Loviisan ydinvoimalaitoksen höyryturbiinin suoritus-kyvyn mittaamiseen käytettävissä olevia menetelmiä ja mittausjärjestelmiä. Tavoitteena oli selvittää mitkä tekijät aiheuttavat mittauksiin mittausvirheitä ja tutkia turbiineiden nykyisten mittalaitteiden epävarmuudet. Tässä diplomityössä selvitettiin millaisia standardinmukaisia testejä sekä muita varteenotettavia testejä turbiinin suorituskyvyn määrittämiseen on käytetty ja millaisia mittauksia ne vaativat. Lisäksi tutkittiin eri lähteistä millaisia mittalaitteita ja mittausjärjestelmiä voidaan käyttää turbiinin toiminnan mittauksiin. Soveltuvista mittausmenetelmistä esitettiin toimintaperiaatteet ja teoria. Kunnonvalvontaa varten esiteltiin värähtelyiden ja vääntö-momentin mittaamisen periaatteet. Epävarmuuksia arvioitiin mittalaitteiden teoreettisen epävarmuuden ja laitesijoittelun pohjalta. Työssä havaittiin, että suorituskyvyn arvioimiseksi on olemassa useita standardeja, mutta niiden mukaisiin mittauksiin tarvittaisiin nykyistä enemmän mittaustuloksia. Tarkkoja sekä luotettavia mittaustuloksia on haasteellista saada kaksifaasivirtauksesta. Mittalaitevalinnoilla ja mittalaitteiden määrää lisäämällä voidaan mittausten epävarmuutta pienentää. Loviisan ydinvoimalaitokselle ehdotettiin muutamia mittausjärjestelmiä turbiinin suoritus-kyvyn määrittämiseksi. Erityisesti turbiinin sisäiset olosuhteet tulisi määrittää nykyistä tarkemmin. Vääntömomentin mittaaminen olisi hyvä kunnonvalvonnan työkalu.
Resumo:
Tutkielman tavoitteena on selvittää sähköisten tavaran toimitusasiakirjojen käytön vaikutukset hankinta- ja logistiikkapalveluita tarjoavan yrityksen toimitusketjun loppupään toimintoihin. Lisäksi työssä rakennetaan konstruktiivisen tutkimusmenetelmän viitekehyksen mukainen toimintamalli yrityksen käyttöä varten. Toimintamallin avulla tarkastellaan kohdeyrityksen mahdollisuutta parantaa toimitusketjun läpinäkyvyyttä, tehostaa sidosryhmien välistä tiedonsiirtoa ja vähentää virheitä ja manuaalista työtä nykyisissä prosesseissa. Työn keskeisin sisältö rakentuu kohdeyrityksen käyttämille kuljetusyrityksille tehdyn kuljetusliikekyselyn, tarkkaan kuvatun nykytilan sekä käytännön ongelmaan rakennetun konstruktion ympärille. Kuljetusliikekyselyn avulla saadaan käyttökelpoinen kuva kuljetusyritysten nykytilasta sekä tulevaisuuden suunnitelmista sähköisiin tavaran toimitusasiakirjoihin liittyen. Nykytilan kuvauksella nostetaan esiin prosesseja ja toimintoja joiden toimintaan voidaan oleellisesti vaikuttaa informaatioteknologian sekä prosessimuutosten avulla. Konstruktion rakentamisessa pääpaino on suunnattu läpinäkyvän ja tehokkaan toimitusketjun aikaansaamisessa. Tutkielman konstruktiota, sähköisten tavaran toimitusasiakirjojen toimintamallia, tarkastellaan yrityksen liiketoiminnan näkökulmasta peilaamalla oletettuja parannuksia aikaisempaan teoriapohjaan. Lisäksi toimintamallin soveltumista reaalimaailman ongelman ratkaisuun arvioidaan diplomityön ohjausryhmästä koostuvan johtajapaneelin tekemällä SWOT-analyysillä sekä heikolla markkinatestillä. Sidosryhmien välisen toiminnan tehostumista arvioidaan kvalitatiivisin menetelmin