17 resultados para sicurezza safety error detection

em AMS Tesi di Dottorato - Alm@DL - Università di Bologna


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The digital electronic market development is founded on the continuous reduction of the transistors size, to reduce area, power, cost and increase the computational performance of integrated circuits. This trend, known as technology scaling, is approaching the nanometer size. The lithographic process in the manufacturing stage is increasing its uncertainty with the scaling down of the transistors size, resulting in a larger parameter variation in future technology generations. Furthermore, the exponential relationship between the leakage current and the threshold voltage, is limiting the threshold and supply voltages scaling, increasing the power density and creating local thermal issues, such as hot spots, thermal runaway and thermal cycles. In addiction, the introduction of new materials and the smaller devices dimension are reducing transistors robustness, that combined with high temperature and frequently thermal cycles, are speeding up wear out processes. Those effects are no longer addressable only at the process level. Consequently the deep sub-micron devices will require solutions which will imply several design levels, as system and logic, and new approaches called Design For Manufacturability (DFM) and Design For Reliability. The purpose of the above approaches is to bring in the early design stages the awareness of the device reliability and manufacturability, in order to introduce logic and system able to cope with the yield and reliability loss. The ITRS roadmap suggests the following research steps to integrate the design for manufacturability and reliability in the standard CAD automated design flow: i) The implementation of new analysis algorithms able to predict the system thermal behavior with the impact to the power and speed performances. ii) High level wear out models able to predict the mean time to failure of the system (MTTF). iii) Statistical performance analysis able to predict the impact of the process variation, both random and systematic. The new analysis tools have to be developed beside new logic and system strategies to cope with the future challenges, as for instance: i) Thermal management strategy that increase the reliability and life time of the devices acting to some tunable parameter,such as supply voltage or body bias. ii) Error detection logic able to interact with compensation techniques as Adaptive Supply Voltage ASV, Adaptive Body Bias ABB and error recovering, in order to increase yield and reliability. iii) architectures that are fundamentally resistant to variability, including locally asynchronous designs, redundancy, and error correcting signal encodings (ECC). The literature already features works addressing the prediction of the MTTF, papers focusing on thermal management in the general purpose chip, and publications on statistical performance analysis. In my Phd research activity, I investigated the need for thermal management in future embedded low-power Network On Chip (NoC) devices.I developed a thermal analysis library, that has been integrated in a NoC cycle accurate simulator and in a FPGA based NoC simulator. The results have shown that an accurate layout distribution can avoid the onset of hot-spot in a NoC chip. Furthermore the application of thermal management can reduce temperature and number of thermal cycles, increasing the systemreliability. Therefore the thesis advocates the need to integrate a thermal analysis in the first design stages for embedded NoC design. Later on, I focused my research in the development of statistical process variation analysis tool that is able to address both random and systematic variations. The tool was used to analyze the impact of self-timed asynchronous logic stages in an embedded microprocessor. As results we confirmed the capability of self-timed logic to increase the manufacturability and reliability. Furthermore we used the tool to investigate the suitability of low-swing techniques in the NoC system communication under process variations. In this case We discovered the superior robustness to systematic process variation of low-swing links, which shows a good response to compensation technique as ASV and ABB. Hence low-swing is a good alternative to the standard CMOS communication for power, speed, reliability and manufacturability. In summary my work proves the advantage of integrating a statistical process variation analysis tool in the first stages of the design flow.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The objective of this work is to characterize the genome of the chromosome 1 of A.thaliana, a small flowering plants used as a model organism in studies of biology and genetics, on the basis of a recent mathematical model of the genetic code. I analyze and compare different portions of the genome: genes, exons, coding sequences (CDS), introns, long introns, intergenes, untranslated regions (UTR) and regulatory sequences. In order to accomplish the task, I transformed nucleotide sequences into binary sequences based on the definition of the three different dichotomic classes. The descriptive analysis of binary strings indicate the presence of regularities in each portion of the genome considered. In particular, there are remarkable differences between coding sequences (CDS and exons) and non-coding sequences, suggesting that the frame is important only for coding sequences and that dichotomic classes can be useful to recognize them. Then, I assessed the existence of short-range dependence between binary sequences computed on the basis of the different dichotomic classes. I used three different measures of dependence: the well-known chi-squared test and two indices derived from the concept of entropy i.e. Mutual Information (MI) and Sρ, a normalized version of the “Bhattacharya Hellinger Matusita distance”. The results show that there is a significant short-range dependence structure only for the coding sequences whose existence is a clue of an underlying error detection and correction mechanism. No doubt, further studies are needed in order to assess how the information carried by dichotomic classes could discriminate between coding and noncoding sequence and, therefore, contribute to unveil the role of the mathematical structure in error detection and correction mechanisms. Still, I have shown the potential of the approach presented for understanding the management of genetic information.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Work environment changes bring new risks, in particular an increase in certain diseases and illnesses caused by stress. The European Agreement of October 2004 defines stress as “a state accompanied by physical, psychological or social dysfunctions, due to the fact that people do not feel able to overcome the gap in relation to requests or expectations for them”. A new strategy aims to reduce accidents and occupational illnesses through a series of actions at European level. The approaches to prevent work related stress must specifically aim to face up organizational and social aspects, to provide training to managers and employees on management of stress, to reduce the impact and to develop suitable systems for rehabilitation and return to work for those who suffered health problems. The enterprises will have to carry out the obligations laid down by legislation, adopting detection systems customised on their size and on their specific interests. Currently manifold tools and methodologies are proposed from different subjects as employer associations, advisors for safety, psychologists etc., but none of these has been identified as a model to follow. After the reconstruction of the theoretical framework where the theme is placed in, the thesis, through a background analysis done by collecting the comments of experts who are involved in the management of occupational safety and the examination of a concrete assessment of work-related stress risk, carried out at a local health authority of Emilia-Romagna region, aims to highlight the main sociological implications related to the emergence of these new risks.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Recent progress in microelectronic and wireless communications have enabled the development of low cost, low power, multifunctional sensors, which has allowed the birth of new type of networks named wireless sensor networks (WSNs). The main features of such networks are: the nodes can be positioned randomly over a given field with a high density; each node operates both like sensor (for collection of environmental data) as well as transceiver (for transmission of information to the data retrieval); the nodes have limited energy resources. The use of wireless communications and the small size of nodes, make this type of networks suitable for a large number of applications. For example, sensor nodes can be used to monitor a high risk region, as near a volcano; in a hospital they could be used to monitor physical conditions of patients. For each of these possible application scenarios, it is necessary to guarantee a trade-off between energy consumptions and communication reliability. The thesis investigates the use of WSNs in two possible scenarios and for each of them suggests a solution that permits to solve relating problems considering the trade-off introduced. The first scenario considers a network with a high number of nodes deployed in a given geographical area without detailed planning that have to transmit data toward a coordinator node, named sink, that we assume to be located onboard an unmanned aerial vehicle (UAV). This is a practical example of reachback communication, characterized by the high density of nodes that have to transmit data reliably and efficiently towards a far receiver. It is considered that each node transmits a common shared message directly to the receiver onboard the UAV whenever it receives a broadcast message (triggered for example by the vehicle). We assume that the communication channels between the local nodes and the receiver are subject to fading and noise. The receiver onboard the UAV must be able to fuse the weak and noisy signals in a coherent way to receive the data reliably. It is proposed a cooperative diversity concept as an effective solution to the reachback problem. In particular, it is considered a spread spectrum (SS) transmission scheme in conjunction with a fusion center that can exploit cooperative diversity, without requiring stringent synchronization between nodes. The idea consists of simultaneous transmission of the common message among the nodes and a Rake reception at the fusion center. The proposed solution is mainly motivated by two goals: the necessity to have simple nodes (to this aim we move the computational complexity to the receiver onboard the UAV), and the importance to guarantee high levels of energy efficiency of the network, thus increasing the network lifetime. The proposed scheme is analyzed in order to better understand the effectiveness of the approach presented. The performance metrics considered are both the theoretical limit on the maximum amount of data that can be collected by the receiver, as well as the error probability with a given modulation scheme. Since we deal with a WSN, both of these performance are evaluated taking into consideration the energy efficiency of the network. The second scenario considers the use of a chain network for the detection of fires by using nodes that have a double function of sensors and routers. The first one is relative to the monitoring of a temperature parameter that allows to take a local binary decision of target (fire) absent/present. The second one considers that each node receives a decision made by the previous node of the chain, compares this with that deriving by the observation of the phenomenon, and transmits the final result to the next node. The chain ends at the sink node that transmits the received decision to the user. In this network the goals are to limit throughput in each sensor-to-sensor link and minimize probability of error at the last stage of the chain. This is a typical scenario of distributed detection. To obtain good performance it is necessary to define some fusion rules for each node to summarize local observations and decisions of the previous nodes, to get a final decision that it is transmitted to the next node. WSNs have been studied also under a practical point of view, describing both the main characteristics of IEEE802:15:4 standard and two commercial WSN platforms. By using a commercial WSN platform it is realized an agricultural application that has been tested in a six months on-field experimentation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This PhD thesis has been proposed to validate and then apply innovative analytical methodologies for the determination of compounds with harmful impact on human health, such as biogenic amines and ochratoxin A in wines. Therefore, the influence of production technology (pH, amino acids precursor and use of different malolactic starters) on biogenic amines content in wines was evaluated. An HPLC method for simultaneous determination of amino acids and amines with precolumnderivatization with 9-Fluorenyl-methoxycarbonyl chloride (FMOC-Cl) and UV detection was developed. Initially, the influence of pH, time of derivatization, gradient profile were studied. In order to improve the separation of amino acids and amines and reduce the time of analysis, it was decided to study the influence of different flows and the use of different columns in the chromatographic method. Firstly, a C18 Luna column was used and later two monolithic columns Chromolith in series. It appeared to be suitable for an easy, precise and accurate determination of a relatively large number of amino acids and amines in wines. This method was then applied on different wines produced in the Emilia Romagna region. The investigation permitted to discriminate between red and white wines. Amino acids content is related to the winemaking process. Biogenic amines content in these wines does not represent a possible toxicological problem for human health. The results of the study of influence of technologies and wine composition demonstrated that pH of wines and amino acids content are the most important factors. Particularly wines with pH > 3,5 show higher concentration of biogenic amines than wines with lower pH. The enrichment of wines by nutrients also influences the content of some biogenic amines that are higher in wines added with amino acids precursors. In this study, amino acids and biogenic amines are not statistically affected by strain of lactic acid bacteria inoculated as a starter for malolactic fermentation. An evaluation of different clean-up (SPE-MycoSep; IACs and LLE) and determination methods (HPLC and ELISA) of ochratoxin A was carried out. The results obtained proved that the SPE clean-up are reliable at the same level while the LLE procedures shows lowest recovery. The ELISA method gave a lower determination and a low reproducibility than HPLC method.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi dottorale in oggetto prende spunto da alcune considerazioni di base relative alla salute di una comunità. Infatti quest’ultima si fonda sulla sicurezza dell’ambiente in cui vive e sulla qualità delle relazioni tra i suoi componenti. In questo ambito la mobilità rappresenta uno degli elementi di maggior criticità, sia per la sicurezza delle persone, che per la salute pubblica, che per le conseguenze sull’ambiente che ne derivano. Negli ultimi anni la circolazione stradale è notevolmente aumentata è questo ha portato a notevoli aspetti negativi, uno dei quali è connesso agli incidenti stradali. In tale ambito viene ricordato che l’Unione Europea ha da tempo indicato come obiettivo prioritario il miglioramento della sicurezza stradale e nel 2001 ha fissato il traguardo di dimezzare entro il 2010 il numero delle vittime degli incidenti stradali. Non ultima, l’approvazione da parte del Parlamento europeo e del Consiglio di un atto legislativo (d’imminente pubblicazione sulla GU Europea) relativo alla gestione della sicurezza in tutte le fasi della pianificazione, della progettazione e del funzionamento delle infrastrutture stradali, in cui si evidenzia l’esigenza di una quantificazione della sicurezza stradale. In tale contesto viene sottolineato come uno dei maggiori problemi nella gestione della sicurezza stradale sia la mancanza di un metodo affidabile per stimare e quantificare il livello di sicurezza di una strada esistente o in progetto. Partendo da questa considerazione la tesi si sviluppa mettendo in evidenza le grandezza fondamentali nel problema della sicurezza stradale, (grado di esposizione, rischio d’incidente e le possibili conseguenze sui passeggeri) e analizzando i sistemi adottati tradizionalmente per effettuare analisi di sicurezza: • Statistiche dei dati storici d’incidente; • Previsione da modelli basati su analisi di regressione dei dati incidentali; • Studi Before-After; • Valutazione da giudizi di esperti. Dopo aver analizzato gli aspetti positivi e negativi delle alternative in parola, viene proposto un nuovo approccio, che combina gli elementi di ognuno dei metodi sopra citati in un algoritmo di previsione incidentale. Tale nuovo algoritmo, denominato Interactive Highway Safety Design Model (IHSDM) è stato sviluppato dalla Federal Highway Administration in collaborazione con la Turner Fairbank Higway Research Center ed è specifico per le strade extraurbane a due corsie. Il passo successivo nello sviluppo della tesi è quello di un’analisi dettagliata del modello IHSDM che fornisce il numero totale di incidenti previsti in un certo intervallo temporale. Viene analizzata la struttura del modello, i limiti d’applicabilità, le equazioni che ne sono alla base e i coefficienti moltiplicativi relativi ad ogni caratteristica geometrica e funzionale. Inoltre viene presentata un’ampia analisi di sensibilità che permette di definire quale sia l’influenza d’ogni singolo Fattore di Previsione incidentale (Accident Predication Factor) sul risultato finale. Dai temi trattati, emerge chiaramente come la sicurezza è legata a più sistemi tra loro interconnessi e che per utilizzare e migliorare i modelli previsionali è necessario avere a disposizione dati completi, congruenti, aggiornati e facilmente consultabili. Infatti, anche quando sono disponibili elementi su tutti gli incidenti avvenuti, spesso mancano informazioni di dettaglio ma fondamentali, riguardanti la strada come ad esempio il grado di curvatura, la larghezza della carreggiata o l’aderenza della pavimentazione. In tale ottica, nella tesi viene presentato il Sistema Informativo Stradale (SIS) della Provincia di Bologna, concepito come strumento di gestione delle problematiche inerenti la viabilità e come strumento di supporto per la pianificazione degli interventi e la programmazione delle risorse da investire sulla rete. Viene illustrato come il sistema sia in grado di acquisire, elaborare ed associare dati georeferenziati relativi al territorio sia sotto forma di rappresentazioni grafiche, sia mediante informazioni descrittive di tipo anagrafico ed alfanumerico. Quindi viene descritto il rilievo ad alto rendimento, effettuato con l’ausilio di un laboratorio mobile multifunzionale (Mobile Mapping System), grazie al quale è stato possibile definire con precisione il grafo completo delle strade provinciali e il database contenente i dati relativi al patrimonio infrastrutturale. Tali dati, relativi alle caratteristiche plano-altimetriche dell’asse (rettifili, curve planimetriche, livellette, raccordi altimetrici, ecc...), alla sezione trasversale (numero e larghezza corsie, presenza di banchine, ecc..), all’ambiente circostante e alle strutture annesse vengono presentati in forma completa specificando per ognuno la variabilità specifica. Inoltre viene evidenziato come il database si completi con i dati d’incidentali georeferenziati sul grafo e compresivi di tutte le informazioni contenute nel modello ISTAT CTT/INC spiegandone le possibili conseguenze sul campo dell’analisi di sicurezza. La tesi si conclude con l’applicazione del modello IHSDM ad un caso reale, nello specifico la SP255 di S.Matteo Decima. Infatti tale infrastruttura sarà oggetto di un miglioramento strutturale, finanziato dalla Regione Emilia Romagna, che consistente nell’allargamento della sede stradale attraverso la realizzazione di una banchina pavimentata di 1.00m su entrambi i lati della strada dalla prog. km 19+000 al km 21+200. Attraverso l’utilizzo dell’algoritmo di previsione incidentale è stato possibile quantificare gli effetti di questo miglioramento sul livello di sicurezza dell’infrastruttura e verificare l’attendibilità del modello con e senza storia incidentale pregressa. Questa applicazione ad un caso reale mette in evidenza come le informazioni del SIS possano essere sfruttate a pieno per la realizzazione di un analisi di sicurezza attraverso l’algoritmo di previsione incidentale IHSDM sia nella fase di analisi di uno specifico tronco stradale che in quella fondamentale di calibrazione del modello ad una specifica rete stradale (quella della Provincia di Bologna). Inoltre viene sottolineato come la fruibilità e la completezza dei dati a disposizione, possano costituire la base per sviluppi di ricerca futuri, come ad esempio l’indagine sulle correlazioni esistenti tra le variabili indipendenti che agiscono sulla sicurezza stradale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The research is part of a survey for the detection of the hydraulic and geotechnical conditions of river embankments funded by the Reno River Basin Regional Technical Service of the Region Emilia-Romagna. The hydraulic safety of the Reno River, one of the main rivers in North-Eastern Italy, is indeed of primary importance to the Emilia-Romagna regional administration. The large longitudinal extent of the banks (several hundreds of kilometres) has placed great interest in non-destructive geophysical methods, which, compared to other methods such as drilling, allow for the faster and often less expensive acquisition of high-resolution data. The present work aims to experience the Ground Penetrating Radar (GPR) for the detection of local non-homogeneities (mainly stratigraphic contacts, cavities and conduits) inside the Reno River and its tributaries embankments, taking into account supplementary data collected with traditional destructive tests (boreholes, cone penetration tests etc.). A comparison with non-destructive methodologies likewise electric resistivity tomography (ERT), Multi-channels Analysis of Surface Waves (MASW), FDEM induction, was also carried out in order to verify the usability of GPR and to provide integration of various geophysical methods in the process of regular maintenance and check of the embankments condition. The first part of this thesis is dedicated to the explanation of the state of art concerning the geographic, geomorphologic and geotechnical characteristics of Reno River and its tributaries embankments, as well as the description of some geophysical applications provided on embankments belonging to European and North-American Rivers, which were used as bibliographic basis for this thesis realisation. The second part is an overview of the geophysical methods that were employed for this research, (with a particular attention to the GPR), reporting also their theoretical basis and a deepening of some techniques of the geophysical data analysis and representation, when applied to river embankments. The successive chapters, following the main scope of this research that is to highlight advantages and drawbacks in the use of Ground Penetrating Radar applied to Reno River and its tributaries embankments, show the results obtained analyzing different cases that could yield the formation of weakness zones, which successively lead to the embankment failure. As advantages, a considerable velocity of acquisition and a spatial resolution of the obtained data, incomparable with respect to other methodologies, were recorded. With regard to the drawbacks, some factors, related to the attenuation losses of wave propagation, due to different content in clay, silt, and sand, as well as surface effects have significantly limited the correlation between GPR profiles and geotechnical information and therefore compromised the embankment safety assessment. Recapitulating, the Ground Penetrating Radar could represent a suitable tool for checking up river dike conditions, but its use has significantly limited by geometric and geotechnical characteristics of the Reno River and its tributaries levees. As a matter of facts, only the shallower part of the embankment was investigate, achieving also information just related to changes in electrical properties, without any numerical measurement. Furthermore, GPR application is ineffective for a preliminary assessment of embankment safety conditions, while for detailed campaigns at shallow depth, which aims to achieve immediate results with optimal precision, its usage is totally recommended. The cases where multidisciplinary approach was tested, reveal an optimal interconnection of the various geophysical methodologies employed, producing qualitative results concerning the preliminary phase (FDEM), assuring quantitative and high confidential description of the subsoil (ERT) and finally, providing fast and highly detailed analysis (GPR). Trying to furnish some recommendations for future researches, the simultaneous exploitation of many geophysical devices to assess safety conditions of river embankments is absolutely suggested, especially to face reliable flood event, when the entire extension of the embankments themselves must be investigated.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Background. Intravenous steroids represent the mainstay of therapy for severe attacks of Ulcerative Colitis (UC). In steroid refractory patients, both iv cyclosporine (CsA) and infliximab (IFX) are valid rescue therapies. Several studies have shown that oral microemulsion CsA (Neoral) is equivalent to iv CsA in term of safety and efficacy in UC patients. Aim. To investigate the efficacy and safety of oral microemulsion CsA vs IFX in patients with severe attack of UC, refractory to iv steroids. Material and methods. From May 2006, all consecutive pts admitted for severe UC were considered eligible. Pts were treated with iv steroid, according to the Oxford regime. After 1 week of intensive treatment, pts non responder to the therapy and not candidate to the surgery, were asked to participate to the trial. They were randomised to receive IFX 5 mg/kg or oral CsA 5 mg/kg. Results. A total of 30 patients were randomised, 17 in the IFX group and 13 in the CsA group. One month after study inclusion, 9 patients of the IFX group (53%) and 7 pts of the CsA group (54%) were in clinical remission (p=0.96), with a Powell-Tuck index ≤ 3. At the end of the follow-up, 7 pts in the IFX group (41%) vs 4 in the CsA group (31%) (p=0.35) underwent colectomy. The total cost of the IFX therapy with IFX was 8.052,84 € versus 1.106,82 €, for each patient. Conclusions. Oral microemulsion CsA and IFX seem to be equivalent in term of efficacy and safety in severe UC patients refractory to iv steroids. In patients treated with IFX the cost of therapy were significantly higher.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il CMV è l’agente patogeno più frequente dopo trapianto (Tx) di cuore determinando sia sindromi cliniche organo specifiche sia un danno immunomediato che può determinare rigetto acuto o malattia coronarica cronica (CAV). I farmaci antivirali in profilassi appaiono superiori all’approccio pre-sintomatico nel ridurre gli eventi da CMV, ma l’effetto anti-CMV dell’everolimus (EVE) in aggiunta alla profilassi antivirale non è stato ancora analizzato. SCOPO DELLO STUDIO: analizzare l’interazione tra le strategie di profilassi antivirale e l’uso di EVE o MMF nell’incidenza di eventi CMV correlati (infezione, necessità di trattamento, malattia/sindrome) nel Tx cardiaco. MATERIALI E METODI: sono stati inclusi pazienti sottoposti a Tx cardiaco e trattati con EVE o MMF e trattamento antivirale di profilassi o pre-sintomatico. L’infezione da CMV è stata monitorata con antigenemia pp65 e PCR DNA. La malattia/sindrome da CMV è stato considerato l’endpoint principale. RISULTATI: 193 pazienti (di cui 10% D+/R-) sono stati inclusi nello studio (42 in EVE e 149 in MMF). Nel complesso, l’infezione da CMV (45% vs. 79%), la necessità di trattamento antivirale (20% vs. 53%), e la malattia/sindrome da CMV (2% vs. 15%) sono risultati significativamente più bassi nel gruppo EVE che nel gruppo MMF (tutte le P<0.01). La profilassi è più efficace nel prevenire tutti gli outcomes rispetto alla strategia pre-sintomatica nei pazienti in MMF (P 0.03), ma non nei pazienti in EVE. In particolare, i pazienti in EVE e strategia pre-sintomatica hanno meno infezioni da CMV (48 vs 70%; P=0.05), e meno malattia/sindrome da CMV (0 vs. 8%; P=0.05) rispetto ai pazienti in MMF e profilassi. CONCLUSIONI: EVE riduce significamene gli eventi correlati al CMV rispetto al MMF. Il beneficio della profilassi risulta conservato solo nei pazienti trattati con MMF mentre l’EVE sembra fornire un ulteriore protezione nel ridurre gli eventi da CMV senza necessità di un estensivo trattamento antivirale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nell’attuale contesto, caratterizzato da un’elevata attenzione alla qualità e alla sicurezza degli alimenti e alle soluzioni tese a garantirli, l’implementazione di sistemi microelettronici per il controllo del prodotto attraverso supporti miniaturizzati e a basso costo può risultare un’opportunità strategica. Oggetto della ricerca di dottorato sono stati lo studio dell’utilizzo di sensori e strumentazione innovativi per la misurazione ed il controllo di parametri ambientali di conservazione di prodotti alimentari e per la loro identificazione mediante la tecnologia della radiofrequenza. Allo scopo è stato studiato il contesto in cui operano gli attori principali della filiera agroalimentare ed è stata sviluppata un’idea di etichetta progettata per essere in grado di emettere attivamente segnale di allarme in caso di necessità (etichetta RFID intelligente semi-passiva). Il prototipo di chip, realizzato in via sperimentale, è stato validato positivamente, sia come strumento di misura, sia in termini di prestazione nel caso studio del monitoraggio della conservazione di un prodotto alimentare in condizioni controllate di temperatura e radiazione luminosa. Le significative evidenze analitiche di reazioni di degradazione dello stato qualitativo del prodotto, quali analisi di pH e colore, raccolte durante il periodo di osservazione di 64 giorni, hanno trovato riscontro con le misure rilevate dal chip prototipo. I risultati invitano ad individuare un partner industriale, con il quale sperimentare l’applicazione della tecnologia proposta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il virus dell’Epatite E (HEV) e i calicivirus (norovirus e sapovirus) causano rispettivamente epatite acuta e gastroenterite. Questi virus sono considerati agenti eziologici emergenti rappresentando un problema di sanità pubblica e di sicurezza alimentare. Per HEV, è ormai confermata la trasmissione zoonotica, e il suino è considerato il principale serbatoio asintomatico. Norovirus e sapovirus infettano sia i bambini che gli adulti. Sebbene questi virus siano stati identificati anche negli animali, la possibile trasmissione zoonotica non è stata dimostrata in modo conclusivo. Il lavoro sperimentale condotto durante il Dottorato di Ricerca è stato focalizzato sullo studio degli aspetti biologici ed epidemiologici dell’infezioni causate da HEV e da calicivirus. Per la prima volta in Italia, i risultati ottenuti hanno dimostrato la presenza del virus HEV nei fegati di suini in fase di macellazione ed hanno confermato, attraverso la ricerca di anticorpi, un’elevata esposizione degli animali al virus. Inoltre, mediante la produzione di antigeni e reattivi immunologici, sono stati messi a punto test diagnostici per la ricerca di anticorpi contro HEV nel suino e nei cinghiali. Il lavoro svolto per la ricerca di calicivirus nel suino e nel bovino ha dimostrato la circolazione dei sapovirus in popolazioni di suini asintomatici e la presenza di norovirus nei vitelli affetti da diarrea acuta.Sono stati inoltre sviluppati reattivi immunologici, utilizzando proteine del capside di norovirus umano e bovino espresse con il sistema ricombinante baculovirus. Questi hanno permesso di evidenziare la presenza di anticorpi contro norovirus umano e bovino, in sieri di veterinari professionalmente esposti. Inoltre, sono stati utilizzati per sviluppare metodi per la concentrazione dei virus da matrici a bassa concentrazione.Infine, le VLP sono state utilizzate per valutare l’attivazione del sistema immunitario umano ex vivo. I risultati hanno dimostrato che le VLP di NoV stimolano il sistema immunitario attivando risposte di tipo Th1 e Th2 .

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Salmonella and Campylobacter are common causes of human gastroenteritis. Their epidemiology is complex and a multi-tiered approach to control is needed, taking into account the different reservoirs, pathways and risk factors. In this thesis, trends in human gastroenteritis and food-borne outbreak notifications in Italy were explored. Moreover, the improved sensitivity of two recently-implemented regional surveillance systems in Lombardy and Piedmont was evidenced, providing a basis for improving notification at the national level. Trends in human Salmonella serovars were explored: serovars Enteritidis and Infantis decreased, Typhimurium remained stable and 4,[5],12:i:-, Derby and Napoli increased, suggesting that sources of infection have changed over time. Attribution analysis identified pigs as the main source of human salmonellosis in Italy, accounting for 43–60% of infections, followed by Gallus gallus (18–34%). Attributions to pigs and Gallus gallus showed increasing and decreasing trends, respectively. Potential bias and sampling issues related to the use of non-local/non-recent multilocus sequence typing (MLST) data in Campylobacter jejuni/coli source attribution using the Asymmetric Island (AI) model were investigated. As MLST data become increasingly dissimilar with increasing geographical/temporal distance, attributions to sources not sampled close to human cases can be underestimated. A combined case-control and source attribution analysis was developed to investigate risk factors for human Campylobacter jejuni/coli infection of chicken, ruminant, environmental, pet and exotic origin in The Netherlands. Most infections (~87%) were attributed to chicken and cattle. Individuals infected from different reservoirs had different associated risk factors: chicken consumption increased the risk for chicken-attributed infections; animal contact, barbecuing, tripe consumption, and never/seldom chicken consumption increased that for ruminant-attributed infections; game consumption and attending swimming pools increased that for environment-attributed infections; and dog ownership increased that for environment- and pet-attributed infections. Person-to-person contacts around holiday periods were risk factors for infections with exotic strains, putatively introduced by returning travellers.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le profonde trasformazioni che hanno interessato l’industria alimentare, unitamente alle accresciute capacità delle scienze mediche ed epidemiologiche di individuare nessi causali tra il consumo di determinate sostanze e l’insorgere di patologie, hanno imposto al legislatore di intervenire nella materia della c.d. sicurezza alimentare mettendo in atto sistemi articolati e complessi tesi a tutelare la salute dei consociati. Quest’ultimo obiettivo viene perseguito, da un lato, mediante disposizioni di natura pubblicistica e di carattere preventivo e, dall’altro lato, dallo strumento della responsabilità civile. Le due prospettive di tutela della salute delle persone costituiscono parti distinte ma al tempo stesso fortemente integrate in una logica unitaria. Questa prospettiva emerge chiaramente nel sistema statunitense: in quel ordinamento la disciplina pubblicistica della sicurezza degli alimenti – definita dalla Food and Drug Administration – costituisce un punto di riferimento imprescindibile anche quando si tratta di stabilire se un prodotto alimentare è difettoso e se, di conseguenza, il produttore è chiamato a risarcire i danni che scaturiscono dal suo utilizzo. L’efficace sinergia che si instaura tra la dimensione pubblicistica del c.d. Public Enforcement e quella risarcitoria (Private Enforcement) viene ulteriormente valorizzata dalla presenza di efficaci strumenti di tutela collettiva tra i quali la class action assume una importanza fondamentale. Proprio muovendo dall’analisi del sistema statunitense, l’indagine si appunta in un primo momento sull’individuazione delle lacune e delle criticità che caratterizzano il sistema nazionale e, più in generale quello comunitario. In un secondo momento l’attenzione si focalizza sull’individuazione di soluzioni interpretative e de iure condendo che, anche ispirandosi agli strumenti di tutela propri del diritto statunitense, contribuiscano a rendere maggiormente efficace la sinergia tra regole preventive sulla sicurezza alimentare e regole risarcitorie in materia di responsabilità del produttore.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente elaborato si prefigge di analizzare il processo di liberalizzazione, comunitario e nazionale, del mercato del trasporto ferroviario di merci e di passeggeri, unitamente all'approfondimento della normativa dettata ai fini della tutela della sicurezza in ambito ferroviario.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La ricerca esamina il ruolo delle imprese che svolgono attività di sicurezza privata in Italia (oggi definita anche "sussidiaria" o "complementare") in relazione allo sviluppo delle recenti politiche sociali che prevedono il coinvolgimento di privati nella gestione della sicurezza in una prospettiva di community safety. Nel 2008/2009 le politiche pubbliche di sicurezza legate al controllo del territorio hanno prodotto norme con nuovi poteri “di polizia” concessi agli amministratori locali e la previsione di associazione di cittadini per la segnalare eventi dannosi alla sicurezza urbana (“ronde”). Nello stesso periodo è iniziata un’importante riforma del settore della sicurezza privata, ancora in fase di attuazione, che definisce le attività svolte dalle imprese di security, individua le caratteristiche delle imprese e fissa i parametri per la formazione del personale. Il quadro teorico del lavoro esamina i concetti di sicurezza/insicurezza urbana e di società del rischio alla luce delle teorie criminologiche legate alla prevenzione situazionale e sociale e alla community policing. La ricerca sul campo si basa sull’analisi del contenuto di diverse interviste in profondità con esponenti del mondo della sicurezza privata (imprenditori, dirigenti, studiosi). Le interviste hanno fatto emergere che il ruolo della sicurezza privata in Italia risulta fortemente problematico; anche la riforma in corso sulla normativa del settore è considerata con scarso entusiasmo a causa delle difficoltà della congiuntura economica che rischia di compromettere seriamente la crescita. Il mercato della sicurezza in Italia è frastagliato e scarsamente controllato; manca un’azione di coordinamento fra le diverse anime della sicurezza (vigilanza privata, investigazione, facility/security management); persiste una condizione di subalternità e di assenza di collaborazione con il settore pubblico che rende la sicurezza privata relegata in un ruolo marginale, lontano dalle logiche di sussidiarietà.