926 resultados para istone deacetilasi 1 cromatina sistemi di espressione
Resumo:
I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.
Resumo:
I continui sviluppi nel campo della fabbricazione dei circuiti integrati hanno comportato frequenti travolgimenti nel design, nell’implementazione e nella scalabilità dei device elettronici, così come nel modo di utilizzarli. Anche se la legge di Moore ha anticipato e caratterizzato questo trend nelle ultime decadi, essa stessa si trova a fronteggiare attualmente enormi limitazioni, superabili solo attraverso un diverso approccio nella produzione di chip, consistente in pratica nella sovrapposizione verticale di diversi strati collegati elettricamente attraverso speciali vias. Sul singolo strato, le network on chip sono state suggerite per ovviare le profonde limitazioni dovute allo scaling di strutture di comunicazione condivise. Questa tesi si colloca principalmente nel contesto delle nascenti piattaforme multicore ad alte prestazioni basate sulle 3D NoC, in cui la network on chip viene estesa nelle 3 direzioni. L’obiettivo di questo lavoro è quello di fornire una serie di strumenti e tecniche per poter costruire e aratterizzare una piattaforma tridimensionale, cosi come dimostrato nella realizzazione del testchip 3D NOC fabbricato presso la fonderia IMEC. Il primo contributo è costituito sia una accurata caratterizzazione delle interconnessioni verticali (TSVs) (ovvero delle speciali vias che attraversano l’intero substrato del die), sia dalla caratterizzazione dei router 3D (in cui una o più porte sono estese nella direzione verticale) ed infine dal setup di un design flow 3D utilizzando interamente CAD 2D. Questo primo step ci ha permesso di effettuare delle analisi dettagliate sia sul costo sia sulle varie implicazioni. Il secondo contributo è costituito dallo sviluppo di alcuni blocchi funzionali necessari per garantire il corretto funziomento della 3D NoC, in presenza sia di guasti nelle TSVs (fault tolerant links) che di deriva termica nei vari clock tree dei vari die (alberi di clock indipendenti). Questo secondo contributo è costituito dallo sviluppo delle seguenti soluzioni circuitali: 3D fault tolerant link, Look Up Table riconfigurabili e un sicnronizzatore mesocrono. Il primo è costituito fondamentalmente un bus verticale equipaggiato con delle TSV di riserva da utilizzare per rimpiazzare le vias guaste, più la logica di controllo per effettuare il test e la riconfigurazione. Il secondo è rappresentato da una Look Up Table riconfigurabile, ad alte prestazioni e dal costo contenuto, necesaria per bilanciare sia il traffico nella NoC che per bypassare link non riparabili. Infine la terza soluzione circuitale è rappresentata da un sincronizzatore mesocrono necessario per garantire la sincronizzazione nel trasferimento dati da un layer and un altro nelle 3D Noc. Il terzo contributo di questa tesi è dato dalla realizzazione di un interfaccia multicore per memorie 3D (stacked 3D DRAM) ad alte prestazioni, e dall’esplorazione architetturale dei benefici e del costo di questo nuovo sistema in cui il la memoria principale non è piu il collo di bottiglia dell’intero sistema. Il quarto ed ultimo contributo è rappresentato dalla realizzazione di un 3D NoC test chip presso la fonderia IMEC, e di un circuito full custom per la caratterizzazione della variability dei parametri RC delle interconnessioni verticali.
Resumo:
The term Ambient Intelligence (AmI) refers to a vision on the future of the information society where smart, electronic environment are sensitive and responsive to the presence of people and their activities (Context awareness). In an ambient intelligence world, devices work in concert to support people in carrying out their everyday life activities, tasks and rituals in an easy, natural way using information and intelligence that is hidden in the network connecting these devices. This promotes the creation of pervasive environments improving the quality of life of the occupants and enhancing the human experience. AmI stems from the convergence of three key technologies: ubiquitous computing, ubiquitous communication and natural interfaces. Ambient intelligent systems are heterogeneous and require an excellent cooperation between several hardware/software technologies and disciplines, including signal processing, networking and protocols, embedded systems, information management, and distributed algorithms. Since a large amount of fixed and mobile sensors embedded is deployed into the environment, the Wireless Sensor Networks is one of the most relevant enabling technologies for AmI. WSN are complex systems made up of a number of sensor nodes which can be deployed in a target area to sense physical phenomena and communicate with other nodes and base stations. These simple devices typically embed a low power computational unit (microcontrollers, FPGAs etc.), a wireless communication unit, one or more sensors and a some form of energy supply (either batteries or energy scavenger modules). WNS promises of revolutionizing the interactions between the real physical worlds and human beings. Low-cost, low-computational power, low energy consumption and small size are characteristics that must be taken into consideration when designing and dealing with WSNs. To fully exploit the potential of distributed sensing approaches, a set of challengesmust be addressed. Sensor nodes are inherently resource-constrained systems with very low power consumption and small size requirements which enables than to reduce the interference on the physical phenomena sensed and to allow easy and low-cost deployment. They have limited processing speed,storage capacity and communication bandwidth that must be efficiently used to increase the degree of local ”understanding” of the observed phenomena. A particular case of sensor nodes are video sensors. This topic holds strong interest for a wide range of contexts such as military, security, robotics and most recently consumer applications. Vision sensors are extremely effective for medium to long-range sensing because vision provides rich information to human operators. However, image sensors generate a huge amount of data, whichmust be heavily processed before it is transmitted due to the scarce bandwidth capability of radio interfaces. In particular, in video-surveillance, it has been shown that source-side compression is mandatory due to limited bandwidth and delay constraints. Moreover, there is an ample opportunity for performing higher-level processing functions, such as object recognition that has the potential to drastically reduce the required bandwidth (e.g. by transmitting compressed images only when something ‘interesting‘ is detected). The energy cost of image processing must however be carefully minimized. Imaging could play and plays an important role in sensing devices for ambient intelligence. Computer vision can for instance be used for recognising persons and objects and recognising behaviour such as illness and rioting. Having a wireless camera as a camera mote opens the way for distributed scene analysis. More eyes see more than one and a camera system that can observe a scene from multiple directions would be able to overcome occlusion problems and could describe objects in their true 3D appearance. In real-time, these approaches are a recently opened field of research. In this thesis we pay attention to the realities of hardware/software technologies and the design needed to realize systems for distributed monitoring, attempting to propose solutions on open issues and filling the gap between AmI scenarios and hardware reality. The physical implementation of an individual wireless node is constrained by three important metrics which are outlined below. Despite that the design of the sensor network and its sensor nodes is strictly application dependent, a number of constraints should almost always be considered. Among them: • Small form factor to reduce nodes intrusiveness. • Low power consumption to reduce battery size and to extend nodes lifetime. • Low cost for a widespread diffusion. These limitations typically result in the adoption of low power, low cost devices such as low powermicrocontrollers with few kilobytes of RAMand tenth of kilobytes of program memory with whomonly simple data processing algorithms can be implemented. However the overall computational power of the WNS can be very large since the network presents a high degree of parallelism that can be exploited through the adoption of ad-hoc techniques. Furthermore through the fusion of information from the dense mesh of sensors even complex phenomena can be monitored. In this dissertation we present our results in building several AmI applications suitable for a WSN implementation. The work can be divided into two main areas:Low Power Video Sensor Node and Video Processing Alghoritm and Multimodal Surveillance . Low Power Video Sensor Nodes and Video Processing Alghoritms In comparison to scalar sensors, such as temperature, pressure, humidity, velocity, and acceleration sensors, vision sensors generate much higher bandwidth data due to the two-dimensional nature of their pixel array. We have tackled all the constraints listed above and have proposed solutions to overcome the current WSNlimits for Video sensor node. We have designed and developed wireless video sensor nodes focusing on the small size and the flexibility of reuse in different applications. The video nodes target a different design point: the portability (on-board power supply, wireless communication), a scanty power budget (500mW),while still providing a prominent level of intelligence, namely sophisticated classification algorithmand high level of reconfigurability. We developed two different video sensor node: The device architecture of the first one is based on a low-cost low-power FPGA+microcontroller system-on-chip. The second one is based on ARM9 processor. Both systems designed within the above mentioned power envelope could operate in a continuous fashion with Li-Polymer battery pack and solar panel. Novel low power low cost video sensor nodes which, in contrast to sensors that just watch the world, are capable of comprehending the perceived information in order to interpret it locally, are presented. Featuring such intelligence, these nodes would be able to cope with such tasks as recognition of unattended bags in airports, persons carrying potentially dangerous objects, etc.,which normally require a human operator. Vision algorithms for object detection, acquisition like human detection with Support Vector Machine (SVM) classification and abandoned/removed object detection are implemented, described and illustrated on real world data. Multimodal surveillance: In several setup the use of wired video cameras may not be possible. For this reason building an energy efficient wireless vision network for monitoring and surveillance is one of the major efforts in the sensor network community. Energy efficiency for wireless smart camera networks is one of the major efforts in distributed monitoring and surveillance community. For this reason, building an energy efficient wireless vision network for monitoring and surveillance is one of the major efforts in the sensor network community. The Pyroelectric Infra-Red (PIR) sensors have been used to extend the lifetime of a solar-powered video sensor node by providing an energy level dependent trigger to the video camera and the wireless module. Such approach has shown to be able to extend node lifetime and possibly result in continuous operation of the node.Being low-cost, passive (thus low-power) and presenting a limited form factor, PIR sensors are well suited for WSN applications. Moreover techniques to have aggressive power management policies are essential for achieving long-termoperating on standalone distributed cameras needed to improve the power consumption. We have used an adaptive controller like Model Predictive Control (MPC) to help the system to improve the performances outperforming naive power management policies.
Resumo:
La Piccola e Media Impresa (PMI) ha costituito in Italia e all’estero un fenomeno che ha permesso un’importante crescita economica dal secondo dopoguerra in poi e tutt’oggi rappresenta quasi il 95% delle imprese italiane. L’ambiente di riferimento odierno è molto dinamico ed incerto e la competitività è più difficile da raggiungere a causa delle nuove e crescenti economie emergenti. A rendere l’ambiente competitivo più complesso si è aggiunta la crisi internazionale nata intorno al 2006 negli Stati Uniti e arrivata in Europa un paio di anni dopo, portando l’economia globale in un periodo di recessione. Tutto ciò ha reso necessario ripensare all’approccio delle imprese verso i mercati, soprattutto le PMI, applicando nuovi processi d’innovazione. Questi non dovranno limitarsi alla sola ricerca di nuovi prodotti ma cambiare anche l’impostazione manageriale in modo da avviare innovazioni di mercato. E qui che il tema dell’internazionalizzazione assume ancor più rilevanza diventando, in un periodo di crisi economica, un’importante opportunità di crescita per le PMI. Dagli anni ’70 in poi le imprese multinazionali (MNCs) erano quelle che operavano in più Paesi e Continenti estendendo il proprio business in tutto il mondo. Per le piccole e medie imprese era difficile immaginare nuovi business al di fuori dei confini territoriali per le difficoltà che un processo di internazionalizzazione richiedeva. Oggi, l’internazionalizzazione, è vista come una chance di sopravvivenza ed è spinta da diversi fattori. Questi non si limitano più alla sola ricerca di maggiori ricavi ed abbattimento dei costi ma anche “sourcing” di Know-how e tecnologie, diversificazione del rischio, partecipazione a segmenti di mercato diventati globali e sfruttamento delle opportunità offerte dai governi esteri. Con il seguente lavoro di tesi si vogliono studiare le modalità in cui si svolgono processi di internazionalizzazione e l’origine dell’impulso che induce le piccole e medie imprese ad intraprenderli. A questo proposito si sono fatte ricerche su database e riviste scientifiche volte alla raccolta e analisi dei principali articoli che la letteratura offre su i temi appena citati. Individuate le principali teorie e modelli queste sono confrontate con un caso empirico cercando i punti di contatto tra ciò che è emerso dall’analisi teorica e quella empirica. A tal proposito viene mostrato il caso dell’azienda Sinergia Sistemi S.p.A. in cui ho collaborato e avuto modo di compiere ricerche per un periodo di sei mesi. Il lavoro di tesi è pertanto strutturato in quattro capitoli. Nel primo capitolo è esposta l’analisi della letteratura scientifica andando ad individuare le principali teorie sui processi di internazionalizzazione. Attraverso quest’analisi sarà possibile avere un quadro di riferimento sui possibili processi di internazionalizzazione che le imprese possono intraprendere. Nel secondo capitolo si vuole comprendere come le imprese arrivino alla decisione di internazionalizzarsi e quali fattori, interni ed esterni all’impresa, influenzino tale scelta. Nel terzo capitolo viene esaminato il caso di Sinergia Sistemi S.p.A., società operante nel campo delle energie rinnovabili ed efficienza energetica. Dopo una prima parte che introduce l’azienda ed il mercato delle rinnovabili, sarà analizzata la situazione attuale dell’azienda nel suo processo di internazionalizzazione e la strategia delineata. Nell’ultimo capitolo si effettuerà un confronto tra ciò che la letteratura scientifica propone sui processi di internazionalizzazione ed il caso specifico esaminato. Si cercherà di trovare dei riscontri tra le varie teorie offerte dalla letteratura con la strategia seguita da Sinergia Sistemi. L’obiettivo generale di questo lavoro di tesi è confrontare teorie e modelli di internazionalizzazione con un caso empirico per comprendere l’esistenza di un riscontro con le aziende appartenenti ad un particolare settore, quello delle energie rinnovabili. Vedremo come le peculiarità di questo settore portino le imprese a dare molta rilevanza ai network che si vengono a formare nei vari Paesi più che alla ricerca di innovazioni di prodotto, che resta sempre fondamentale per la crescita. L’appartenenza ai giusti network può semplificare notevolmente il processo di internazionalizzazione, se non diventare perfino indispensabile.
Resumo:
Il lavoro svolto in questa tesi verte sullo sviluppo e l'integrazione del modello teorico conosciuto come Biochemical Tuple Spaces for Self-Organizing Coordination, in breve BTSSOC, in una piattaforma completa, chiamata BTSSOC-Cellulat, per la simulazione di sistemi biochimici, sviluppata utilizzando i linguaggi Java, Prolog, TuCSoN e ReSpecT.
Resumo:
Protocolli e metodologie di caratterizzazione di un sistema di misura di segnali fluorescenti in microscopia ottica
Resumo:
Il lavoro svolto in questa tesi è stato quello di introdurre alcuni concetti importanti dei sistemi embedded, in particolare ci si è soffermati su quelli open source. È stato trattato nello specifico Arduino come esempio di sistema embedded open source a basso costo.
Resumo:
Questa tesi si propone di indagare l'impatto di alcuni scenari di sviluppo aeroportuale legati alla prevista implementazione di un sistema di trasporto APM - People Mover, in termini di performance del terminal passeggeri dell'Aeroporto `G.Marconi' di Bologna, per fornire soluzioni efficaci alla mobilità. Il background teorico è rappresentato dai risultati ottenuti dalla ricerca sperimentale e ormai acquisiti dalla trattazione classica per code markoviane avanzate (bulk queus), mentre il metodo messo a punto, del tutto generale,parte dagli arrivi schedulati e attraverso una serie di considerazioni econometriche costruisce una serie di scenari differenti,implementati poi attraverso la simulazione dinamica con l'utilizzo del software ARENA. Le principali grandezze di stato descrittive dei processi modellizzati ottenute in output vengono confrontate e valutate nel complesso, fornendo in prima approssimazione previsioni sull'efficacia del sistema previsto. Da ultimo, vengono proposti e confrontati i due approcci forniti tanto dalla manualistica di settore quanto da contributi di ricerca per arrivare a definire un dimensionamento di massima di strutture per la mobilità (una passerella di collegamento del terminal alla stazione APM) e una verifica della piattaforma per l'attesa ad essa contigua.
Resumo:
Gli acciai inossidabili austenitici presentano ottime caratteristiche che li rendono ideali in tutti quei settori in cui è richiesta un’elevata resistenza alla corrosione associata a caratteristiche estetiche e funzionali. L’acciaio AISI 316L risulta essere uno dei più studiati ed utilizzati, specie nell’industria alimentare e farmaceutica, dove leapparecchiature debbono poter essere sottoposte ad aggressive procedure di sanificazione. Tuttavia, la modesta resistenza meccanica e la bassa durezza superficiale di questo acciaio determinano un comportamento non soddisfacente dal punto di vista dell’usura da strisciamento in assenza di lubrificanti, situazione che si verifica sovente in molti macchinari dedicati a queste industrie. Tra le varie soluzioni, studiate per migliorare il suo comportamento tribologico, la cementazione a bassa temperatura (LowTemperature Carburizing, LTC) seguita dalla deposizione PE-CVD (Plasma-Enhanced Chemical Vapour Deposition) di un rivestimento di carbonio amorfo idrogenato (a-C:H), sembra essere molto promettente. In questo lavoro vengono analizzate le caratteristiche tribologiche dell’acciaio AISI 316L cementato a bassa temperatura e rivestito di carbonio amorfo idrogenato, tramite prove tribologiche di strisciamento non lubrificato in geometria di contatto pattino su cilindro. Sono state verificate, inoltre, le caratteristiche microstrutturali e meccaniche superficiali del rivestimento multistrato LTC/a-C:H tramite osservazioni morfologiche/topografiche, analisi in spettroscopia micro-Raman e misure di indentazione strumentata sulle superfici rivestite, seguite da analisi metallografia e misura dei profili di microdurezza Vickers in sezione trasversale. I risultati ottenuti dimostrano che, ai fini di contenere l’effetto negativo legato all’aumento di rugosità dovuto al trattamento LTC, è opportuno effettuare una lucidatura precedente al trattamento stesso, poiché effettuandola successivamente si rischierebbe dicomprometterne lo strato efficace. Inoltre, si osserva come il trattamento LTC incrementi le capacità del substrato di supportare il rivestimento a-C:H, portando ad un miglioramento delle prestazioni tribologiche, nelle prove di strisciamento non lubrificato. Infine, si dimostra come l’utilizzo di un rivestimento a base di carbonio amorfo idrogenato adeguatamente supportato permetta una riduzione dell’attrito (di oltre cinque volte) e dell’usura (di circa dieci ordini di grandezza) rispetto ai corrispondenti materiali non rivestiti.
Resumo:
Il rapido progresso della tecnologia, lo sviluppo di prodotti altamente sofisticati, la forte competizione globale e l’aumento delle aspettative dei clienti hanno messo nuove pressioni sui produttori per garantire la commercializzazione di beni caratterizzati da una qualità sempre crescente. Sono gli stessi clienti che da anni si aspettano di trovare sul mercato prodotti contraddistinti da un livello estremo di affidabilità e sicurezza. Tutti siamo consapevoli della necessità per un prodotto di essere quanto più sicuro ed affidabile possibile; ma, nonostante siano passati oramai 30 anni di studi e ricerche, quando cerchiamo di quantificare ingegneristicamente queste caratteristiche riconducibili genericamente al termine qualità, oppure quando vogliamo provare a calcolare i benefici concreti che l’attenzione a questi fattori quali affidabilità e sicurezza producono su un business, allora le discordanze restano forti. E le discordanze restano evidenti anche quando si tratta di definire quali siano gli “strumenti più idonei” da utilizzare per migliorare l’affidabilità e la sicurezza di un prodotto o processo. Sebbene lo stato dell’arte internazionale proponga un numero significativo di metodologie per il miglioramento della qualità, tutte in continuo perfezionamento, tuttavia molti di questi strumenti della “Total Quality” non sono concretamente applicabili nella maggior parte delle realtà industriale da noi incontrate. La non applicabilità di queste tecniche non riguarda solo la dimensione più limitata delle aziende italiane rispetto a quelle americane e giapponesi dove sono nati e stati sviluppati questi strumenti, oppure alla poca possibilità di effettuare investimenti massicci in R&D, ma è collegata anche alla difficoltà che una azienda italiana avrebbe di sfruttare opportunamente i risultati sui propri territori e propri mercati. Questo lavoro si propone di sviluppare una metodologia semplice e organica per stimare i livelli di affidabilità e di sicurezza raggiunti dai sistemi produttivi e dai prodotti industriali. Si pone inoltre di andare al di là del semplice sviluppo di una metodologia teorica, per quanto rigorosa e completa, ma di applicare in forma integrata alcuni dei suoi strumenti a casi concreti di elevata valenza industriale. Questa metodologia come anche, più in generale, tutti gli strumenti di miglioramento di affidabilità qui presentati, interessano potenzialmente una vasta gamma di campi produttivi, ma si prestano con particolare efficacia in quei settori dove coesistono elevate produzioni e fortissime esigenze qualitative dei prodotti. Di conseguenza, per la validazione ed applicazione ci si è rivolti al settore dell’automotive, che da sempre risulta particolarmente sensibile ai problemi di miglioramento di affidabilità e sicurezza. Questa scelta ha portato a conclusioni la cui validità va al di là di valori puramente tecnici, per toccare aspetti non secondari di “spendibilità” sul mercato dei risultati ed ha investito aziende di primissimo piano sul panorama industriale italiano.