1000 resultados para Tecnologie per l’interpretazione
Resumo:
Quando si pensa alla figura di un medico, non lo si può immaginare senza uno stetoscopio alle sue spalle. Lo stetoscopio è uno strumento molto semplice ma molto importante, inventato in Francia nel 1816 da René Théophile Hyacinthe Laennec, permise di poter auscultare ed analizzare i rumori generati dai battiti cardiaci ottenendo suoni più puliti e rendendo meno invasiva la procedura, precedentemente svolta posizionando l'orecchio sul petto del paziente. Nel 1970 David Littman migliorò notevolmente la struttura dello stetoscopio precedente, creando lo strumento che noi tutti conosciamo. Grazie alla rapida evoluzione dell'elettronica negli ultimi anni si hanno oggi a disposizione una moltitudine di nuovi ed efficaci sensori, alcuni dei quali trovano impiego nell'ambito dell'ingegneria biomedica. In particolare, si è pensato di utilizzare queste nuove tecnologie per la progettazione e lo sviluppo di uno stetoscopio elettronico. Il forte vantaggio di uno stetoscopio elettronico, rispetto al classico biomeccanico, risiede nell'elaborazione, nel filtraggio e nell'amplificazione del segnale che si può applicare all'auscultazione, oltreché nella possibilità di poter registrare il segnale acquisito, rendendo questo dispositivo uno strumento potenzialmente efficace per la telemedicina. In questo elaborato verrà trattato lo sviluppo di uno stetoscopio elettronico, evidenziando tutti i problemi e le criticità riscontrate durante il progetto in ogni punto di vista, software, hardware e signal processing. Tutto ciò non prima di una consistente introduzione necessaria per comprendere la tipologia di segnale d'interesse e l'analisi di alcuni tipi di dispositivi presenti in commercio e non, da cui si è tratta ispirazione. Seguirà un analisi critica dei risultati ottenuti, confrontando i segnali ottenuti dal dispositivo progettato con quelli ottenuti in reparto utilizzando due dispositivi commerciali, analizzando le differenze, punti di forza e di debolezza.
Resumo:
Questo studio si pone come obiettivo lo sviluppo e la sperimentazione di un metodo per eseguire un benchmarking di due diversi sistemi di Additive Manufacturing mediante macchina di misura a coordinate Renishaw Cyclone. In particolare sono valutate le prestazioni in termini di precisione di forma di un sistema di tipo FDM e di uno di tipo PolyJet al fine di ottenere dati indicanti le potenzialità di queste due tecnologie per parti di piccole dimensioni. Dopo un’introduzione generale sull’Additive Manufacturing, si scende nei dettagli delle due tecniche oggetto dello studio e si discute di come strutturare il piano sperimentale in funzione degli obiettivi dell’attività e dei metodi scelti per l’acquisizione e la valutazione dei dati. Si parte, infatti, con la fabbricazione di un modello di benchmark, le cui geometrie vengono poi rilevate tramite una macchina di misura a coordinate per ottenere i valori di precisione di forma, che sono presentati come tolleranze geometriche del sistema GD&T. Successivamente, si descrivono tutte le fasi dell’attività sperimentale, iniziando con l’ideazione del modello di benchmark e proseguendo con i processi di fabbricazione e misurazione, per poi arrivare alla deduzione dei valori di precisione di forma tramite un post-processing dei dati. Infine, si presentano i valori di tolleranza ottenuti e si traggono le conclusioni riguardo la riuscita dell’attività sperimentale e il confronto tra le due tecnologie di Additive Manufacturing.
Resumo:
Al fine di mitigare gli impatti ambientali legati alla produzione energetica, lo sviluppo di tecnologie per l’utilizzo di carburanti carbon-free risulta essere essenziale. Si confida che la sostituzione di combustibili convenzionali con sorgenti di energia rinnovabili e bio-combustibili possa ridurre le emissioni di gas serra. Tuttavia, l’intermittenza della maggior parte delle sorgenti di energia rinnovabile comporta problemi di stoccaggio dell’energia. Pertanto, risulta necessaria l’introduzione di opportuni vettori energetici quali l’idrogeno. Nonostante l’elevata reattività dell’idrogeno, gli elevati costi per raggiungere standard di sicurezza opportuni nella fase di trasporto e stoccaggio limitano il suo uso estensivo. Per tale motivo, sono state vagliate sostanze alternative, quali l’ammoniaca, caratterizzate da processi produttivi collaudati oltreché di facile stoccaggio e trasporto. Considerando i processi produttivi di entrambe le sostanze, la possibile presenza di metano ha suggerito lo studio di miscele ternarie costituite da metano, idrogeno e ammoniaca. Sulla base di queste premesse, il presente lavoro di tesi è stato incentrato sull’analisi cinetica e sulla valutazione dei principali parametri di sicurezza di alcune miscele gassose in presenza di aria e aria arricchita. Tale analisi ha permesso una valutazione preliminare della sostenibilità delle miscele ternarie in esame al variare delle condizioni operative. Infatti, sono state quantificate le prestazioni ambientali e gli standard di sicurezza al fine di confrontare la sostenibilità e la convenienza delle alternative di processo.
Resumo:
Cet article présente les résultats de la revue systématique: Inglis SC, Clark RA, McAlister FA, et al. Structured telephone support or telemonitoring programmes for patients with chronic heart failure. Cochrane Database Systematic Reviews 2010, Issue 8. Art. No.:CD007228. DOI:10.1002/14651858.CD007228.pub2. PMID: 20687083.
Resumo:
The digital electronic market development is founded on the continuous reduction of the transistors size, to reduce area, power, cost and increase the computational performance of integrated circuits. This trend, known as technology scaling, is approaching the nanometer size. The lithographic process in the manufacturing stage is increasing its uncertainty with the scaling down of the transistors size, resulting in a larger parameter variation in future technology generations. Furthermore, the exponential relationship between the leakage current and the threshold voltage, is limiting the threshold and supply voltages scaling, increasing the power density and creating local thermal issues, such as hot spots, thermal runaway and thermal cycles. In addiction, the introduction of new materials and the smaller devices dimension are reducing transistors robustness, that combined with high temperature and frequently thermal cycles, are speeding up wear out processes. Those effects are no longer addressable only at the process level. Consequently the deep sub-micron devices will require solutions which will imply several design levels, as system and logic, and new approaches called Design For Manufacturability (DFM) and Design For Reliability. The purpose of the above approaches is to bring in the early design stages the awareness of the device reliability and manufacturability, in order to introduce logic and system able to cope with the yield and reliability loss. The ITRS roadmap suggests the following research steps to integrate the design for manufacturability and reliability in the standard CAD automated design flow: i) The implementation of new analysis algorithms able to predict the system thermal behavior with the impact to the power and speed performances. ii) High level wear out models able to predict the mean time to failure of the system (MTTF). iii) Statistical performance analysis able to predict the impact of the process variation, both random and systematic. The new analysis tools have to be developed beside new logic and system strategies to cope with the future challenges, as for instance: i) Thermal management strategy that increase the reliability and life time of the devices acting to some tunable parameter,such as supply voltage or body bias. ii) Error detection logic able to interact with compensation techniques as Adaptive Supply Voltage ASV, Adaptive Body Bias ABB and error recovering, in order to increase yield and reliability. iii) architectures that are fundamentally resistant to variability, including locally asynchronous designs, redundancy, and error correcting signal encodings (ECC). The literature already features works addressing the prediction of the MTTF, papers focusing on thermal management in the general purpose chip, and publications on statistical performance analysis. In my Phd research activity, I investigated the need for thermal management in future embedded low-power Network On Chip (NoC) devices.I developed a thermal analysis library, that has been integrated in a NoC cycle accurate simulator and in a FPGA based NoC simulator. The results have shown that an accurate layout distribution can avoid the onset of hot-spot in a NoC chip. Furthermore the application of thermal management can reduce temperature and number of thermal cycles, increasing the systemreliability. Therefore the thesis advocates the need to integrate a thermal analysis in the first design stages for embedded NoC design. Later on, I focused my research in the development of statistical process variation analysis tool that is able to address both random and systematic variations. The tool was used to analyze the impact of self-timed asynchronous logic stages in an embedded microprocessor. As results we confirmed the capability of self-timed logic to increase the manufacturability and reliability. Furthermore we used the tool to investigate the suitability of low-swing techniques in the NoC system communication under process variations. In this case We discovered the superior robustness to systematic process variation of low-swing links, which shows a good response to compensation technique as ASV and ABB. Hence low-swing is a good alternative to the standard CMOS communication for power, speed, reliability and manufacturability. In summary my work proves the advantage of integrating a statistical process variation analysis tool in the first stages of the design flow.
Resumo:
ABSTRACT: The dimension stone qualification through the use of non-destructive tests (NDT) is a relevant research topic for the industrial characterisation of finite products, because the competition of low-costs products can be sustained by an offer of highqualification and a top-guarantee products. The synthesis of potentialities offered by the NDT is the qualification and guarantee similar to the well known agro-industrial PDO, Protected Denomination of Origin. In fact it is possible to guarantee both, the origin and the quality of each stone product element, even through a Factory Production Control on line. A specific disciplinary is needed. A research developed at DICMA-Univ. Bologna in the frame of the “OSMATER” INTERREG project, allowed identifying good correlations between destructive and non-destructive tests for some types of materials from Verbano-Cusio-Ossola region. For example non conventional ultrasonic tests, image analysis parameters, water absorption and other measurements showed to be well correlated with the bending resistance, by relationships varying for each product. In conclusion it has been demonstrated that a nondestructive approach allows reaching several goals, among the most important: 1) the identification of materials; 2) the selection of products; 3) the substitution of DT by NDT. Now it is necessary to move from a research phase to the industrial implementation, as well as to develop new ND technologies focused on specific aims.
Resumo:
“Tecnologie sostenibili per il social housing”: la mia tesi affronta il tema dell’edilizia sociale cercando di capire se può ancora diventare un campo di ricerca e sperimentazione architettonica come lo è stato in più occasioni nell’ultimo secolo. La ricerca si è sviluppata in due fasi: una prima attività di studio della vicenda storica dell’abitazione sociale in Italia, con alcuni confronti europei, fino ad analizzare il nuovo quadro che si è andato delineando dalla fine degli anni ’90 e che caratterizza la situazione attuale. Successivamente, la progettazione di un piccolo intervento di edilizia abitativa che si propone di rispondere agli attuali profili della domanda, puntando a scelte tipologiche e costruttive coerenti. Nel trentennio 1950-’80, nell’Europa uscita dalla Seconda guerra mondiale, e in Italia in particolare, l’edilizia popolare ha vissuto un periodo dinamico, ricco di interventi normativi da parte dello Stato, (su tutte la legge Fanfani, e le norme Gescal) che hanno permesso di realizzare molti degli edifici ancora oggi utilizzati, accelerando la ripresa economica e sociale. Dopo gli anni ’80, le ricerche e le sperimentazioni in campo architettonico si spostano verso altri temi; superata la necessità di fornire una casa a milioni di persone, il tema dell’alloggio sembra perdere il forte rilievo sociale che aveva avuto nei decenni precedenti. Fino a ritenere che il tema dell’alloggio e in particolare dell’alloggio sociale, non avesse più la necessità di essere sperimentato e approfondito. Oggi la situazione riguardante la sperimentazione non è molto diversa: sono ancora molto limitati, infatti, gli studi e le ricerche sul tema dell’alloggio sociale. Ciò che è nuovamente mutata, invece, è l’emergenza di una nuova domanda di casa e la drammatica esigenza sociale di fornire un alloggio a milioni di famiglie che non se lo possono permettere. Le dinamiche che guidano questa nuova ondata di richiesta di alloggi sono molteplici, sia di natura sociale che economica. Sul piano sociale: - l’aumento del numero delle famiglie, passate da 22.226.000 nel 200o a 24.642.000 nel 2010, con un aumento del 9,8% in un solo decennio; - la “nuclearizzazione” delle famiglie e la loro contrazione dimensionale, fino agli attuali 2,4 componenti per nucleo; - l’invecchiamento della popolazione; - l’aumento della popolazione straniera, con oltre 3.900.000 di immigrati regolari. Su quello economico: - l’aumento della povertà assoluta: in Italia 1.162.000 famiglie (4,7%) corrispondenti a 3.074.000 individui vivono sotto la soglia di povertà; - l’aumento della povertà relativa, che investe oggi 2.657.000 famiglie (9,3%) e l’aumento delle famiglie a rischio di povertà (920.000 famiglie, pari al 3,7% dei nuclei). Questi dati evidenziano la dimensione del problema abitativo e smentiscono l’opinione che si tratti di una questione marginale: nel 2010 in Italia almeno 1.162.000 non hanno le risorse per pagare un affitto, nemmeno a canone agevolato, e 4.739.000 famiglie non riescono a pagare un affitto ai prezzi del libero mercato, ma non hanno la possibilità di entrare nelle graduatorie per l’assegnazione di un alloggio sociale. Da questa panoramica sulle dimensioni del disagio abitativo, prende spunto la progettazione del mio sistema costruttivo, che si pone come obiettivo quello di ridurre i costi di costruzione tramite la standardizzazione dei componenti, consentendo di conseguenza, un minor costo di costruzione e quindi la possibilità di canoni di affitto ridotti, mantenendo buoni standard di qualità degli alloggi, sostenibilità ambientale e risparmio energetico. Le linee guida che hanno portato alla progettazione del sistema sono: - modularità degli spazi abitativi - zonizzazione funzionale - razionalizzazione impiantistica - illuminazione naturale - industrializzazione dei sistema costruttivo - standardizzazione dei componenti. Il risultato è un catalogo di alloggi di diverse metrature, aggregabili secondo tre tipologie residenziali. - a ballatoio - in linea - a torre Messo a punto questo sistema costruttivo, è stato progettato un intervento in un contesto specifico, per verificare l’applicabilità delle soluzioni sviluppate ed esplorarne alcune possibilità.
Resumo:
La presente tesi, pur senza avere pretese di completezza e rimanendo in un ambito di raccolta di informazioni e dati, intende approfondire ed analizzare gli aspetti legati alla normativa vigente ed alle problematiche di diritto e privacy per il rilevamento di immagini in ambito civile, partendo dalla descrizione generale dei più comuni sistemi di rilevamento e attraverso l’analisi di casi di studio e di esempi d’applicazione.