914 resultados para Errors and blunders, Literary.
Resumo:
Tässä diplomityössä tutkittiin yrityksen Ethernet-lähiverkon palvelutasoa, palveluiden saatavuuden näkökulmasta. Tutkimus pohjautui käytännön tarpeeseen. Palvelun saatavuuteen verkon osalta vaikuttavat sen käyttöaste, virheet ja viiveet. Työssä käytettiin valmiita kaupallisia ohjelmia verkon hallintaan ja verkkostatistiikan keräämiseen. Työssä selvitettiin teoriapohjaa laitteiden, kytkentätekniikoiden, palvelulaatuprotokollien (QoS), tietoliikenneprotokollien, RMON:in, SNMP:in ja VLAN:in osalta, jotka yhdessä muodostavat kytkentäisen lähiverkon palvelutason. Työn tuloksena todettiin mittauskohteena olevan lähiverkon palvelutason olevan hyvällä tasolla. Työn tuloksista pääteltiin tulevaisuuden suurimpana haasteena olevan lähiverkkoja yhdistävien yhteyksien nostaminen selvästi paremmalle suoritustasolle. Lähiverkkojen teoreettinen suorituskyky onkin useimmiten riittävä, mutta lähiverkkojen hallinnassa on parantamisen varaa. Työssä toteutettiin seurantajärjestelmä, jolla on helppo seurata lähiverkon palvelutason kehitystä jatkossa.
Resumo:
BACKGROUND/RATIONALE: Patient safety is a major concern in healthcare systems worldwide. Although most safety research has been conducted in the inpatient setting, evidence indicates that medical errors and adverse events are a threat to patients in the primary care setting as well. Since information about the frequency and outcomes of safety incidents in primary care is required, the goals of this study are to describe the type, frequency, seasonal and regional distribution of medication incidents in primary care in Switzerland and to elucidate possible risk factors for medication incidents. Label="METHODS AND ANALYSIS" ="METHODS"/> <AbstractText STUDY DESIGN AND SETTING: We will conduct a prospective surveillance study to identify cases of medication incidents among primary care patients in Switzerland over the course of the year 2015. PARTICIPANTS: Patients undergoing drug treatment by 167 general practitioners or paediatricians reporting to the Swiss Federal Sentinel Reporting System. INCLUSION CRITERIA: Any erroneous event, as defined by the physician, related to the medication process and interfering with normal treatment course. EXCLUSION CRITERIA: Lack of treatment effect, adverse drug reactions or drug-drug or drug-disease interactions without detectable treatment error. PRIMARY OUTCOME: Medication incidents. RISK FACTORS: Age, gender, polymedication, morbidity, care dependency, hospitalisation. STATISTICAL ANALYSIS: Descriptive statistics to assess type, frequency, seasonal and regional distribution of medication incidents and logistic regression to assess their association with potential risk factors. Estimated sample size: 500 medication incidents. LIMITATIONS: We will take into account under-reporting and selective reporting among others as potential sources of bias or imprecision when interpreting the results. ETHICS AND DISSEMINATION: No formal request was necessary because of fully anonymised data. The results will be published in a peer-reviewed journal. TRIAL REGISTRATION NUMBER: NCT0229537.
Resumo:
Diplomityössä tutkittiin tukinpyörityksen yleisimpiä ongelmia. Tutkimus selvitti tukinpyörityksen ongelmien syitä, sekä määritti kahden tukinpyörityslaitteiston takuuarvot. Tutkimuksen kohteena oli myös prosessiparametrien muutoksen vaikutus pyöritystarkkuuteen. Tukin pyöritysvirheen ja saannon yhteyttä tutkittiin teorian perusteella. Tukin onnistuneessa asemoinnissa sahaukseen täytyy hallita tukinpyöritys sekä -suuntaus. Tukin virheellinen asemointi heikentää saantoa. Raaka-ainekustannukset ovat suurimmat yksittäiset kustannukset sahoilla, siksi tukin virheellinen asemointi heikentää sahan taloudellista tulosta voimakkaasti. Työn tuloksista käy ilmi, ettei tukinpyörityksen onnistuminen riipu ainoastaan mekaanisista ratkaisuista, järjestelmän kaikkien komponenttien on toimittava moitteettomasti. Mekaniikka ei toteuta pyörityskäskyjä oikein, jos käskyt ovat epätarkkoja. Tukinpyörityksen tarkkuuden mittaukseen on kiinnitetty huomiota vasta äskettäin. Tunnusluvut, jotka kuvaavat tukinpyöritystarkkuutta ovat vakiintumassa yleiseen käyttöön. Työn tulosten perusteella voidaan tukinpyörityslaitteistojen myynti perustaa tutkimustiedolle.
Resumo:
Tämän työn tavoitteena oli selvittää Sokoksen reklamaatioprosessin kehittämisessä saavutettavia etuja. Reklamaatiokäytäntö muuttui tämän työn aikana paperiversiosta sähköiseen muotoon, ja tässä on pyritty selvittämään muutosten vaikutuksia seurantaan ja ja toimintaan. Tavoitteena oli myös rakentaa prosessin seurannan kannalta tärkeitä mittareita kehityksen seurantaa varten.Sokos-ketjussa tehtiin vuonna 1999 yli 20 000 virheilmoitusta hankintayhtiöön. Näistä osa oli toimitusvirheitä ja osa tuotevirheitä. Reklamaatioiden arvoksi muodostui ostohinnoin lähes seitsemän miljoonaa markkaa. Reklamaatioiden suuresta määrästä johtuen Sokoksella katsottiin järkeväksi tehostaa reklamointia siirtymällä tekemään virheilmoitukset suoraan tietojärjestelmään ja välittämään ne sitä kautta automaattisesti hankintayhtiöön. Uuteen toimintamalliin siirryttiin 1.5.2000. Prosessissa saavutettuja etuja mitattiin tässä työssä järjestämällä henkilöstölle kysely, sekä mittaamalla ja arvioimalla ajansäästöjä. Investoinnin kannattavuutta tutkittiin erilaisten tulevaisuusnäkymien perusteella. Tutkimuksen perusteella uusi prosessi on helpottanut tekijöiden työtä, seuranta/mittaaminen on huomattavasti aiempaa tehokkaampaa, ja investointi muodostuu melko suurella todennäköisyydellä kannattavaksi tiettyjen hyvityssummiin liittyvien ehtojen täyttyessä.
Resumo:
La spectroscopie infrarouge (FTIR) est une technique de choix dans l'analyse des peintures en spray (traces ou bonbonnes de référence), grâce à son fort pouvoir discriminant, sa sensibilité, et ses nombreuses possibilités d'échantillonnage. La comparaison des spectres obtenus est aujourd'hui principalement faite visuellement, mais cette procédure présente des limitations telles que la subjectivité de la prise de décision car celle-ci dépend de l'expérience et de la formation suivie par l'expert. De ce fait, de faibles différences d'intensités relatives entre deux pics peuvent être perçues différemment par des experts, même au sein d'un même laboratoire. Lorsqu'il s'agit de justifier ces différences, certains les expliqueront par la méthode analytique utilisée, alors que d'autres estimeront plutôt qu'il s'agit d'une variabilité intrinsèque à la peinture et/ou à son vécu (par exemple homogénéité, sprayage, ou dégradation). Ce travail propose d'étudier statistiquement les différentes sources de variabilité observables dans les spectres infrarouges, de les identifier, de les comprendre et tenter de les minimiser. Le deuxième objectif principal est de proposer une procédure de comparaison des spectres qui soit davantage transparente et permette d'obtenir des réponses reproductibles indépendamment des experts interrogés. La première partie du travail traite de l'optimisation de la mesure infrarouge et des principaux paramètres analytiques. Les conditions nécessaires afin d'obtenir des spectres reproductibles et minimisant la variation au sein d'un même échantillon (intra-variabilité) sont présentées. Par la suite une procédure de correction des spectres est proposée au moyen de prétraitements et de sélections de variables, afin de minimiser les erreurs systématiques et aléatoires restantes, et de maximiser l'information chimique pertinente. La seconde partie présente une étude de marché effectuée sur 74 bonbonnes de peintures en spray représentatives du marché suisse. Les capacités de discrimination de la méthode FTIR au niveau de la marque et du modèle sont évaluées au moyen d'une procédure visuelle, et comparées à diverses procédures statistiques. Les limites inférieures de discrimination sont testées sur des peintures de marques et modèles identiques mais provenant de différents lots de production. Les résultats ont montré que la composition en pigments était particulièrement discriminante, à cause des étapes de corrections et d'ajustement de la couleur subies lors de la production. Les particularités associées aux peintures en spray présentes sous forme de traces (graffitis, gouttelettes) ont également été testées. Trois éléments sont mis en évidence et leur influence sur le spectre infrarouge résultant testée : 1) le temps minimum de secouage nécessaire afin d'obtenir une homogénéité suffisante de la peinture et, en conséquence, de la surface peinte, 2) la dégradation initiée par le rayonnement ultra- violet en extérieur, et 3) la contamination provenant du support lors du prélèvement. Finalement une étude de population a été réalisée sur 35 graffitis de la région lausannoise et les résultats comparés à l'étude de marché des bonbonnes en spray. La dernière partie de ce travail s'est concentrée sur l'étape de prise de décision lors de la comparaison de spectres deux-à-deux, en essayant premièrement de comprendre la pratique actuelle au sein des laboratoires au moyen d'un questionnaire, puis de proposer une méthode statistique de comparaison permettant d'améliorer l'objectivité et la transparence lors de la prise de décision. Une méthode de comparaison basée sur la corrélation entre les spectres est proposée, et ensuite combinée à une évaluation Bayesienne de l'élément de preuve au niveau de la source et au niveau de l'activité. Finalement des exemples pratiques sont présentés et la méthodologie est discutée afin de définir le rôle précis de l'expert et des statistiques dans la procédure globale d'analyse des peintures. -- Infrared spectroscopy (FTIR) is a technique of choice for analyzing spray paint speciments (i.e. traces) and reference samples (i.e. cans seized from suspects) due to its high discriminating power, sensitivity and sampling possibilities. The comparison of the spectra is currently carried out visually, but this procedure has limitations such as the subjectivity in the decision due to its dependency on the experience and training of the expert. This implies that small differences in the relative intensity of two peaks can be perceived differently by experts, even between analysts working in the same laboratory. When it comes to justifying these differences, some will explain them by the analytical technique, while others will estimate that the observed differences are mostly due to an intrinsic variability from the paint sample and/or its acquired characteristics (for example homogeneity, spraying, or degradation). This work proposes to statistically study the different sources of variability observed in infrared spectra, to identify them, understand them and try to minimize them. The second goal is to propose a procedure for spectra comparison that is more transparent, and allows obtaining reproducible answers being independent from the expert. The first part of the manuscript focuses on the optimization of infrared measurement and on the main analytical parameters. The necessary conditions to obtain reproducible spectra with a minimized variation within a sample (intra-variability) are presented. Following that a procedure of spectral correction is then proposed using pretreatments and variable selection methods, in order to minimize systematic and random errors, and increase simultaneously relevant chemical information. The second part presents a market study of 74 spray paints representative of the Swiss market. The discrimination capabilities of FTIR at the brand and model level are evaluated by means of visual and statistical procedures. The inferior limits of discrimination are tested on paints coming from the same brand and model, but from different production batches. The results showed that the pigment composition was particularly discriminatory, because of the corrections and adjustments made to the paint color during its manufacturing process. The features associated with spray paint traces (graffitis, droplets) were also tested. Three elements were identified and their influence on the resulting infrared spectra were tested: 1) the minimum shaking time necessary to obtain a sufficient homogeneity of the paint and subsequently of the painted surface, 2) the degradation initiated by ultraviolet radiation in an exterior environment, and 3) the contamination from the support when paint is recovered. Finally a population study was performed on 35 graffitis coming from the city of Lausanne and surroundings areas, and the results were compared to the previous market study of spray cans. The last part concentrated on the decision process during the pairwise comparison of spectra. First, an understanding of the actual practice among laboratories was initiated by submitting a questionnaire. Then, a proposition for a statistical method of comparison was advanced to improve the objectivity and transparency during the decision process. A method of comparison based on the correlation between spectra is proposed, followed by the integration into a Bayesian framework at both source and activity levels. Finally, some case examples are presented and the recommended methodology is discussed in order to define the role of the expert as well as the contribution of the tested statistical approach within a global analytical sequence for paint examinations.
Resumo:
Although fetal anatomy can be adequately viewed in new multi-slice MR images, many critical limitations remain for quantitative data analysis. To this end, several research groups have recently developed advanced image processing methods, often denoted by super-resolution (SR) techniques, to reconstruct from a set of clinical low-resolution (LR) images, a high-resolution (HR) motion-free volume. It is usually modeled as an inverse problem where the regularization term plays a central role in the reconstruction quality. Literature has been quite attracted by Total Variation energies because of their ability in edge preserving but only standard explicit steepest gradient techniques have been applied for optimization. In a preliminary work, it has been shown that novel fast convex optimization techniques could be successfully applied to design an efficient Total Variation optimization algorithm for the super-resolution problem. In this work, two major contributions are presented. Firstly, we will briefly review the Bayesian and Variational dual formulations of current state-of-the-art methods dedicated to fetal MRI reconstruction. Secondly, we present an extensive quantitative evaluation of our SR algorithm previously introduced on both simulated fetal and real clinical data (with both normal and pathological subjects). Specifically, we study the robustness of regularization terms in front of residual registration errors and we also present a novel strategy for automatically select the weight of the regularization as regards the data fidelity term. Our results show that our TV implementation is highly robust in front of motion artifacts and that it offers the best trade-off between speed and accuracy for fetal MRI recovery as in comparison with state-of-the art methods.
Resumo:
Tämä diplomityö on selvitystyö mittakuvien ja kolmiulotteisten CAD-mallien tuottamisesta. Mittakuvat ja 3D-CAD-mallit halutaan Neles-tuotemerkin omaaville tuotteille. Olennaisena osana työssä on tuotetiedonhallintajärjestelmä AtonPDM, koska mittakuvia ja malleja toivottaisiin hallittavan AtonPDM-järjestelmällä. Työ tehdään Metso Automationin (MA) Flow Control (FC) –liiketoimintalinjalle. Nykyiset mittakuvat aiheuttavat ongelmia sekä MA:ssa että asiakkaille. MA:ssa mittakuvien tekeminen kestää kauemmin kuin asiakas toivoisi. Nykyisen mittakuvaohjelmiston riittämättömät ominaisuudet aiheuttavat lisätyötä mittakuvien valmistuksessa. Asiakkaille mittakuvien viivästyminen on suunnittelua hidastava tekijä. Mittakuvissa olevat virheet ja puutteet vaikeuttavat asiakkaan suunnittelutyötä ja saattavat päästä läpi tarkatuksien myös loppusuunnitelmiin, jolloin seurauksena voi olla rahallisia menetyksiä. Tämän päivän putkistosuunnittelu hoidetaan suurimmaksi osaksi 3D-CADohjelmistoilla. Suunnittelua helpotetaan ja nopeutetaan valmiilla komponenttien 3Dmalleilla, joihin on liitetty tuotetietoa. Työssä on haastateltu MA:n henkilökuntaa, CAD-järjestelmien toimittajia ja asiakkaita. Haastattelut ovat työn tärkein tiedonlähde. Teoriatietoa on selvitetty kirjoista, lehdistä ja internetistä. Teoriaosiossa käydään läpi tuotetiedonhallinta (Product Data Management, PDM), tietokanta ja parametrinen mallintaminen. Työn lopputuloksena on pyritty saamaan kuvaus siitä miten tuotetaan 3D-CAD-mallit ja mittakuvat Neles-tuotteista käyttäen tiedonlähteenä AtonPDM:ää ja millaisia 3Dmallien ja mittakuvien tulee olla. Malleja ja mittakuvia tuottavaan järjestelmään on etsitty ratkaisuja CAD-ohjelmistoista. Ratkaisuja on verrattu keskenään ominaisuuksien, joustavuuden ja AtonPDM yhteensopivuuden perusteella.
Resumo:
Tutkielman tavoitteena on esittää kustannustehokkaita tapoja lähetystoimintojen ja kuljetustietojen käsittelyyn päivittäistavarakaupan logistiikkakeskuksessa. Tutkielmassa kuvataan case-yrityksen lähettämö- ja kuljetustoimintojen sekä lähtevän tavaravirran seurannan ja rahtilaskutuksen nykytilanne. Tutkimusmenetelmänä on käytetty case-yrityksen avainhenkilöiden teemahaastatteluja sekä erillistä haastattelututkimusta kahdeksalle suurimmalle case-yrityksen käyttämälle kuljetusliikkeelle. Työssä esitellään keskeisimpien kuljetustietojen ja lähettämötoimintojen sähköistämisen edellytyksiä sekä niiden toteutusmahdollisuuksia. Koska lähtevän tavaravirran käsittely manuaalisesti aiheuttaa ylimääräisiä virheitä ja tehottomuutta pitkän arvoketjun eri vaiheissa työllistäen lähettämön, kuljetusliikkeiden, terminaalien ja myymälöiden työntekijöitä, on tutkielmassa esitelty keskeisimmät keinot tehostaa ja automatisoida lähtevien kuljetusyksiköiden käsittelyä. Ratkaisut pohjautuvat lähtevien kuljetusyksiköiden yksilöintiin ja seurantaan. Yksiköiden käsittelyä tehostetaan automatisoimalla yksiköiden tunnistamista ja tiedonsiirtoa. Käytettäviksi työkaluiksi on valittu viivakoodit ja tarvittavat lukijat yksiköiden tunnistamiseen. Sähköisellä rahtikirjalla pyritään paperittomaan lähettämötoimintaan ja sitä kautta automatisoimaan rahtilaskutusta ottamalla käyttöön laskuton maksu. Kuljetustietojen sähköistämisellä voidaan saavuttaa mittavat kustannussäästöt pitkässä arvoketjussa.
Resumo:
Mertaniemen voimalaitoksien prosessitietokone (PTK) on uusittu keväällä 2005. Tämän työn tarkoituksena on ollut auttaa PTK:n virheiden korjaamisessa ja puut-teiden kartoittamisessa. Työssä on keskitytty etenkin prosessiraportoinnin tekemiseen. Työn alussa on kerrottu Mertaniemen voimalaitoksen tekniset tiedot ja PTK:n hankinnan taustatietoja. Uudesta PTK-järjestelmästä on kuvattu laitteisto, sovellus ja perusohjelmistot. PTK:n ja muiden järjestelmien välinen tiedonsiirto on myös kuvattu. PTK muuttujien nimeäminen on esitelty, jotta olisi helpompi hahmottaa työssä käytettyjen positioiden merkityksiä. Prosessiraportoinnin kehittämisessä kuvataan raporttien tarvetta ja niiden sisältöä sekä sitä kuinka raportit on tehty. Päästöraportointi on esitetty omana osa-alueenaan, koska voimalaitosten päästöjen seurantaa edellytetään tehtävän viran¬omaismääräysten ja EU-direktiivien vaatimusten mukaisesti. Raporttien lisäksi prosessiarvojen seuraamista helpottamaan on tehty yhteisiä trendi- ja työtilanäyttöjä. PTK:n ongelmakohtina on käsitelty muuttujien tunnuksissa ja nimissä olevat virheet sekä PTK laskennan tarkastaminen. Muuttujien nimien ja laskennan tarkas¬tusta tehtiin prosessiraportoinnin tekemisen yhteydessä sekä yhteistyössä PTK-järjestelmän toimittaneen Metso Automation Oy:n kanssa. Päästölaskennan korjaaminen oli erityisen tärkeää.
Resumo:
In recent years, an explosion of interest in neuroscience has led to the development of "Neuro-law," a new multidisciplinary field of knowledge whose aim is to examine the impact and role of neuroscientific findings in legal proceedings. Neuroscientific evidence is increasingly being used in US and European courts in criminal trials, as part of psychiatric testimony, nourishing the debate about the legal implications of brain research in psychiatric-legal settings. During these proceedings, the role of forensic psychiatrists is crucial. In most criminal justice systems, their mission consists in accomplishing two basic tasks: assessing the degree of responsibility of the offender and evaluating their future dangerousness. In the first part of our research, we aim to examine the impact of Neuroscientific evidence in the assessment of criminal responsibility, a key concept of law. An initial jurisprudential research leads to conclude that there are significant difficulties and limitations in using neuroscience for the assessment of criminal responsibility. In the current socio-legal context, responsibility assessments are progressively being weakened, whereas dangerousness assessments gain increasing importance in the field of forensic psychiatry. In the second part of our research we concentrate on the impact of using neuroscience for the assessment of dangerousness. We argue that in the current policy era of zero tolerance, judges, confronted with the pressure to ensure public security, may tend to interpret neuroscientific knowledge and data as an objective and reliable way of evaluating one's dangerousness and risk of reoffending, rather than their responsibility. This tendency could be encouraged by a utilitarian approach to punishment, advanced by some recent neuroscientific research which puts into question the existence of free will and responsibility and argues for a rejection of the retributive theory of punishment. Although this shift away from punishment aimed at retribution in favor of a consequentialist approach to criminal law is advanced by some authors as a more progressive and humane approach, we believe that it could lead to the instrumentalisation of neuroscience in the interest of public safety, which can run against the proper exercise of justice and civil liberties of the offenders. By advancing a criminal law regime animated by the consequentialist aim of avoiding social harms through rehabilitation, neuroscience promotes a return to a therapeutical approach to crime which can have serious impact on the kind and the length of sentences imposed on the offenders; if neuroscientific data are interpreted as evidence of dangerousness, rather than responsibility, it is highly likely that judges impose heavier sentences, or/and security measures (in civil law systems), which can be indeterminate in length. Errors and epistemic traps of past criminological movements trying to explain the manifestation of a violent and deviant behavior on a biological and deterministic basis stress the need for caution concerning the use of modern neuroscientific methods in criminal proceedings.
Resumo:
Purpose - This article describes the use of web services to interconnect the GTBib interlibrary loan program with the OCLC WorldShare platform. Design/methodology/approach - We describe the current problem of duplication of procedures in libraries that have added their collections to the OCLC WorldCat catalogue in recent years and are therefore more likely to receive interlibrary loan requests through the WorldShare Platform. Findings - A solution that uses web services to insert and retrieve requests between the two systems is presented. Autonomous agents periodically check the status of the requests and keep them updated and synchronized. These agents also inform the library staff of any variation or inconsistency that is detected. Practical Implications - This technology reduces process management time by making it unnecessary to introduce the request data in both systems. Agents are used to check the consistency of statuses between the two systems, thus avoiding errors and omissions and improving the efficiency of the whole interlibrary loan process. Originality/value - This paper describes in detail the technical aspects of the solution as a reference for the development of future applications.
Resumo:
Four different pseudopotentials and three methodologies were employed in the calculation of the geometry and the frequencies of metal complexes like [M(NH3)2X2] [X=halogen, M=Zn, Cd], and [Hg(NH3)2]Cl2. The vibrational assignments were carefully checked and compared to the theoretically calculated ones. Graphical procedures were employed to estimate family errors and their average behavior. The calculated results show the SBK-X basis set with the best results for the geometries and calculated frequencies, for individual species and statistical results. Its use is recommend, mainly if the neighborhood atoms are described with similar pseudopotentials. Excellent results were also obtained with the Hay and Wadt pseudopotential.
Resumo:
This paper sets out to identify the initial positions of the different decisionmakers who intervene in a group decision making process with a reducednumber of actors, and to establish possible consensus paths between theseactors. As a methodological support, it employs one of the most widely-knownmulticriteria decision techniques, namely, the Analytic Hierarchy Process(AHP). Assuming that the judgements elicited by the decision makers follow theso-called multiplicative model (Crawford and Williams, 1985; Altuzarra et al.,1997; Laininen and Hämäläinen, 2003) with log-normal errors and unknownvariance, a Bayesian approach is used in the estimation of the relative prioritiesof the alternatives being compared. These priorities, estimated by way of themedian of the posterior distribution and normalised in a distributive manner(priorities add up to one), are a clear example of compositional data that will beused in the search for consensus between the actors involved in the resolution ofthe problem through the use of Multidimensional Scaling tools
Resumo:
Comptar amb sistemes sofisticats de gestió o programes ERP (Enterprise Resource Planning) no és suficient per a les organitzacions. Per a què aquests recursos donin resultats adequats i actualitzats, la informació d’entrada ha de llegir-se de forma automàtica, per aconseguir estalviar en recursos, eliminació d’errors i assegurar el compliment de la qualitat. Per aquest motiu és important comptar amb eines i serveis d’identificació automàtica i col•lecció de dades. Els principals objectius a assolir (a partir de la introducció al lector de la importància dels sistemes logístics d’identificació en un entorn global d’alta competitivitat), són conèixer i comprendre el funcionament de les tres principals tecnologies existents al mercat (codis de barres lineals, codis de barres bidimensionals i sistemes RFID), veure en quin estat d’implantació es troba cadascuna i les seves principals aplicacions. Un cop realitzat aquest primer estudi es pretén comparar les tres tecnologies per o poder obtenir perspectives de futur en l’àmbit de l’autoidentificació. A partir de la situació actual i de les necessitats de les empreses, juntament amb el meravellós món que sembla obrir la tecnologia RFID (Radio Frequency Identification), la principal conclusió a la que s’arribarà és que malgrat les limitacions tècniques dels codis de barres lineals, aquests es troben completament integrats a tota la cadena logística gràcies a l’estandarització i la utilització d’un llenguatge comú, sota el nom de simbologies GTIN (Global Trade Item Number), durant tota la cadena de subministres que garanteixen total traçabilitat dels productes gràcies en part a la gestió de les bases de dades i del flux d’informació. La tecnologia RFUD amb l’EPC (Electronic Product Code) supera aquestes limitacions, convertint-se en el màxim candidat per a substituir els limitats codis de barres. Tot i això, RFID, amb l’EPC, no serà un adequat identificador logístic fins que es superin importants barreres, com són la falta d’estandarització i l’elevat cost d’implantació.
Resumo:
Technology scaling has proceeded into dimensions in which the reliability of manufactured devices is becoming endangered. The reliability decrease is a consequence of physical limitations, relative increase of variations, and decreasing noise margins, among others. A promising solution for bringing the reliability of circuits back to a desired level is the use of design methods which introduce tolerance against possible faults in an integrated circuit. This thesis studies and presents fault tolerance methods for network-onchip (NoC) which is a design paradigm targeted for very large systems-onchip. In a NoC resources, such as processors and memories, are connected to a communication network; comparable to the Internet. Fault tolerance in such a system can be achieved at many abstraction levels. The thesis studies the origin of faults in modern technologies and explains the classification to transient, intermittent and permanent faults. A survey of fault tolerance methods is presented to demonstrate the diversity of available methods. Networks-on-chip are approached by exploring their main design choices: the selection of a topology, routing protocol, and flow control method. Fault tolerance methods for NoCs are studied at different layers of the OSI reference model. The data link layer provides a reliable communication link over a physical channel. Error control coding is an efficient fault tolerance method especially against transient faults at this abstraction level. Error control coding methods suitable for on-chip communication are studied and their implementations presented. Error control coding loses its effectiveness in the presence of intermittent and permanent faults. Therefore, other solutions against them are presented. The introduction of spare wires and split transmissions are shown to provide good tolerance against intermittent and permanent errors and their combination to error control coding is illustrated. At the network layer positioned above the data link layer, fault tolerance can be achieved with the design of fault tolerant network topologies and routing algorithms. Both of these approaches are presented in the thesis together with realizations in the both categories. The thesis concludes that an optimal fault tolerance solution contains carefully co-designed elements from different abstraction levels