508 resultados para strutture fragili, joint, sequenza di deformazione, fronte reattivo, diffusione, avvezione
Resumo:
La gestione del traffico è una delle principali problematiche delle città moderne, e porta alla definizione di nuove sfide per quanto riguarda l’ottimizzazione del flusso veicolare. Il controllo semaforico è uno degli elementi fondamentali per ottimizzare la gestione del traffico. Attualmente la rilevazione del traffico viene effettuata tramite sensori, tra i quali vengono maggiormente utilizzate le spire magnetiche, la cui installazione e gestione implica costi elevati. In questo contesto, il progetto europeo COLOMBO si pone come obiettivo l’ideazione di nuovi sistemi di regolazione semaforica in grado di rilevare il traffico veicolare mediante sensori più economici da installare e mantenere, e capaci, sulla base di tali rilevazioni, di auto organizzarsi, traendo ispirazione dal campo dell’intelligenza artificiale noto come swarm intelligence. Alla base di questa auto organizzazione semaforica di COLOMBO vi sono due diversi livelli di politiche: macroscopico e microscopico. Nel primo caso le politiche macroscopiche, utilizzando il feromone come astrazione dell’attuale livello del traffico, scelgono la politica di gestione in base alla quantità di feromone presente nelle corsie di entrata e di uscita. Per quanto riguarda invece le politiche microscopiche, il loro compito è quello di deci- dere la durata dei periodi di rosso o verde modificando una sequenza di fasi, chiamata in COLOMBO catena. Le catene possono essere scelte dal sistema in base al valore corrente della soglia di desiderabilità e ad ogni catena corrisponde una soglia di desiderabilità. Lo scopo di questo elaborato è quello di suggerire metodi alternativi all’attuale conteggio di questa soglia di desiderabilità in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Ogni algoritmo complesso ha bisogno di essere ottimizzato per migliorarne le performance. Anche in questo caso, gli algoritmi proposti hanno subito un processo di parameter tuning per ottimizzarne le prestazioni in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Sulla base del lavoro di parameter tuning, infine, sono state eseguite delle simulazioni per valutare quale degli approcci suggeriti sia il migliore.
Resumo:
Il collasso di diverse colonne, caratterizzate da danneggiamenti simili, quali ampie fessure fortemente inclinate ad entrambe le estremità dell’elemento, lo schiacciamento del calcestruzzo e l’instabilità dei ferri longitudinali, ha portato ad interrogarsi riguardo gli effetti dell’interazione tra lo sforzo normale, il taglio ed il momento flettente. Lo studio è iniziato con una ricerca bibliografica che ha evidenziato una sostanziale carenza nella trattazione dell’argomento. Il problema è stato approcciato attraverso una ricerca di formule della scienza delle costruzioni, allo scopo di mettere in relazione lo sforzo assiale, il taglio ed il momento; la ricerca si è principalmente concentrata sulla teoria di Mohr. In un primo momento è stata considerata l’interazione tra solo due componenti di sollecitazione: sforzo assiale e taglio. L’analisi ha condotto alla costruzione di un dominio elastico di taglio e sforzo assiale che, confrontato con il dominio della Modified Compression Field Theory, trovata tramite ricerca bibliografica, ha permesso di concludere che i risultati sono assolutamente paragonabili. L’analisi si è poi orientata verso l’interazione tra sforzo assiale, taglio e momento flettente. Imponendo due criteri di rottura, il raggiungimento della resistenza a trazione ed a compressione del calcestruzzo, inserendo le componenti di sollecitazione tramite le formule di Navier e Jourawsky, sono state definite due formule che mettono in relazione le tre azioni e che, implementate nel software Matlab, hanno permesso la costruzione di un dominio tridimensionale. In questo caso non è stato possibile confrontare i risultati, non avendo la ricerca bibliografica mostrato niente di paragonabile. Lo studio si è poi concentrato sullo sviluppo di una procedura che tenta di analizzare il comportamento di una sezione sottoposta a sforzo normale, taglio e momento: è stato sviluppato un modello a fibre della sezione nel tentativo di condurre un calcolo non lineare, corrispondente ad una sequenza di analisi lineari. La procedura è stata applicata a casi reali di crollo, confermando l’avvenimento dei collassi.
Resumo:
Oggetto di questa tesi di laurea è la progettazione di una nuova scuola primaria in Via Bidente, località Villaggio Primo Maggio a Rimini. La tesi parte da un progetto preliminare, elaborato dall’ufficio tecnico del Comune di Rimini, sulla base del quale, nel settembre 2013, è stato indetto un appalto integrato con procedura aperta per l’affidamento sia della progettazione esecutiva che della realizzazione della scuola. L’intervento si era reso necessario poiché la vecchia scuola non era più in grado di far fronte alle esigenze del quartiere, investito da un intenso sviluppo che ne aveva aumentato sensibilmente gli abitanti e quindi la popolazione scolastica. La tesi ha assunto gli obiettivi e i dimensionamenti fissati dal Bando di gara: quindici aule, sei laboratori, palestra, biblioteca, mensa, sala insegnanti, area verde, parcheggio, pista ciclopedonale. Per definire le strategie di progetto da adottare, è stata effettuata un’analisi dell’area dalla quale sono emerse esigenze e criticità del quartiere. A scala urbana la viabilità e la fruibilità del lotto risultano inadeguate, e per correggerle, si è prevista la realizzazione di una nuova pista ciclabile e di un parcheggio. Inoltre professionisti esperti e di comprovata esperienza in materia hanno condotto studi approfonditi ed attente valutazioni di carattere ambientale, riguardanti l’inquinamento elettromagnetico, acustico ed atmosferico. Per limitare l'inquinamento acustico a cui la scuola risulterebbe esposta, è stata prevista la realizzazione di alcuni tratti di barriere fonoassorbenti lungo il perimetro dell’area di progetto al fine di proteggerla dalle fonti di rumore maggiormente impattanti. Al centro delle strategie progettuali c’è il bambino, che diventa il vero committente, ossia il soggetto di cui soddisfare esigenze e desideri. Si è cercato quindi di realizzare un ambiente confortevole e sicuro in cui i bambini si sentano a proprio agio. A scala architettonica si è pensata a una distribuzione degli spazi che permetta di sfruttare a pieno le potenzialità degli ambienti attraverso una collocazione delle funzioni su tre diverse fasce longitudinali: servizi nella zona nord, connettivo e aule a sud. Inoltre è stato studiato uno schema distributivo in linea con le esigenze dei nuovi modelli pedagogici, in particolare: aule e laboratori adattabili, spazi per l’apprendimento di gruppo sia all’interno che all’esterno dell’edificio, i cui spazi di distribuzione sono dimensionati per poter ospitare anche funzioni didattiche. Ogni scelta adottata vuol far si che tutto l’edificio diventi fonte di insegnamento per i bambini, una sorta di paesaggio dell’apprendimento.
Resumo:
In questo elaborato si presenta il teorema del viriale, introdotto per la prima volta da R. J. E. Clausius nel 1870. É una relazione fra energia cinetica e poteziale totali di un sistema che, se soddisfatta, implica che questo sia in equilibrio. Sono equivalenti le affermazioni: "sistema virializzato" e "sistema in equilibrio". Sebbene in ordine cronologico la prima formulazione del teorema sia stata quella in forma scalare, ricaveremo, per maggiore generalità, la forma tensoriale, dalla quale estrarremo quella scalare come caso particolare. Sono di nostro interesse i sistemi astrofisici dinamici autogravitanti costituiti da N particelle (intese come stelle, gas etc.), perciò la trattazione teorica è dedotta per tali configurazioni. In seguito ci concentreremo su alcune applicazioni astrofisiche. In primo luogo analizzeremo sistemi autogravitanti, per cui l'unica energia potenziale in gioco è quella dovuta a campi gravitazionali. Sarà quindi ricavato il limite di Jeans per l'instabilità gravitazionale, con conseguente descrizione del processo di formazione stellare, la stima della quantità di materia oscura in questi sistemi e il motivo dello schiacciamento delle galassie ellittiche. Successivamente introdurremo nell'energia potenziale un termine dovuto al campo magnetico, seguendo il lavoro di Fermi e Chandrasekhar, andando a vedere come si modifica il teorema e quali sono le implicazioni nella stabilità delle strutture stellari. Per motivi di spazio, queste trattazioni saranno presentate in termini generali e con approssimazioni, non potendo approfondire casi più specifici.
Resumo:
L’estrema importanza degli aspetti neurologici che riguardano la vita dell’uomo, unitamente all’elevato grado di invalidità che le malattie del sistema nervoso sono in grado di provocare, ha portato nel corso del tempo gli studiosi a sviluppare metodologie di intervento sempre più accurate e specifiche nel tentativo di far fronte a queste complesse situazioni. Il sempre più frequente ricorso alle cure farmacologiche e alla psicoterapia ha saputo ben presto però sollevare numerose perplessità in merito all’efficacia di tali approcci. È a partire da questi presupposti che è stato possibile portare avanti nuovi studi sulla tDCS, un particolare tipo di apparecchiatura biomedicale basata sul concetto di elettrostimolazione cerebrale. Questo lavoro si propone di descrivere la capacità della tDCS di intervenire direttamente sui meccanismi che comunemente si verificano all’interno del cervello umano tramite il rilascio di corrente, nonché i numerosi miglioramenti che sono stati rilevati in seguito al suo utilizzo su soggetti umani. Si propone inoltre di mettere in evidenza le grandi potenzialità che essa è in grado di manifestare relativamente ai processi cognitivi, partendo dagli aspetti che riguardano il linguaggio, passando attraverso quelli propri della memoria e della conoscenza, fino ad arrivare a rivestire un ruolo di primo piano anche all’interno delle sfaccettature tipiche degli stati umorali.
Resumo:
Scopo. La risonanza magnetica (RM) in diffusione (Diffusion Weighted imaging DWI) permette di ottenere dati quantitativi sul movimento dei protoni liberi in acqua mediante la valutazione di alcuni parametri tra cui il coefficiente di diffusione apparente (Apparent Diffusion Coefficient ADC). Questo parametro potrebbe essere usato per differenziare i diversi tipi di tessuti (cisti di diverso tipo, parenchima sano, parenchima non più funzionante, …) e stabilire il danno renale. Lo scopo del presente lavoro è quello di valutare la correlazione tra il valore di ADC e il tessuto renale al fine di verificare la potenziale capacità di questo parametro di offrire informazioni funzionali e poter predire l’insorgenza di cisti e quindi l’aumento di volume del rene. Materiali e Metodi. 11 pazienti di cui 2 donne e 9 uomini (età compresa tra i 55 e i 75 anni) sono stati sottoposti a esame RM con sistema ad alto campo 1,5T. Tutti i pazienti erano affetti da malattia policistica. Il protocollo prevedeva l’utilizzo di una sequenza SE-EPI pesata in diffusione, le immagini sono state acquisite per diversi valori di b-value (500 s/mm², 700 s/mm², 900 s/mm², e 1500 s/mm²). Risultati. Osservando i valori di ADC (coefficiente di diffusione apparente) ottenuti per diversi valori di b e in due differenti regioni del rene, corrispondenti a cisti e parenchima, si sono riscontrati valori diversi . Indipendentemente dal b-value, le cisti hanno un valore di ADC minore rispetto al valore di ADC delle zone parenchimali. Al crescere del b-value, tali valori diventano più piccoli. Conclusioni. La DWI permette di ottenere valori di ADC in grado di discriminare tessuti.
Resumo:
Recenti sviluppi nella progettazione di impianti di luce di sincrotrone di quarta generazione riguardano la produzione di fasci di luce nella banda dei raggi X con elevate caratteristiche in termini di brillanza, coerenza e impulsi estremamente brevi ( femtosecondo ) . I principali schemi per la produzione della radiazione XFEL riguardano l’impiego di ondulatori con differenti modalità di seeding. L’utilizzo dei fasci di radiazione XFEL nelle linee di luce per applicazioni di imaging, spettroscopia e diffrazione, ha determinato un costante sforzo sia nello sviluppo di dispositivi ottici in grado di selezionare e focalizzare il fascio su dimensioni nanometriche, che nella sperimentazione di tecniche “lensless” in grado di superare i limiti imposti dall’utilizzo di tali dispositivi . I risultati ottenuti nella produzione dei fasci hanno consentito nuove possibilità di indagine nella struttura dei materiali su distanze atomiche nella definizione, senza precedenti di dettagli su scale temporali del femtosecondo, permettendo lo studio, non solo di strutture atomiche in condizioni di equilibrio stabile quanto di stati della materia velocemente dinamici e di non equilibrio. CXDI e Spettroscopia Strutturale Ultraveloce risolte in tempo sono alcune delle tecniche in cui l’utilizzo della radiazione XFEL apre nuove possibilità di indagine agli stati transienti della materia permettendo la ricostruzione della dinamica di processi chimico –fisici su intervalli temporali finora inaccessibili .
Resumo:
Una nuova ed originale tecnica è stata messa a punto, finalizzata alla realizzazione di una procedura per la diagnosi dell’osteoporosi, mediante l’utilizzo di scanner low field single-sided NMR. Tre differenti scanner (NMR MOLE, MOUSE PM 10 e MOUSE PM5) sono stati usati per determinare il Bone Volume-to-Total Volume ratio (BV/TV), parametro che fornisce indicazioni sulla microstruttura dell’osso. I risultati sono stati confrontati con le analisi micro-CT. Gli esperimenti sono stati condotti nel Lab. NMR del dipartimento DIFA di UNIBO e nel Lab. NMR della Victoria University di Wellington (NZ), durante un periodo di visita di cinque mesi, supportato da una borsa di studio della “Facoltà di Scienze” di UNIBO. Le analisi micro-CT sono state condotte presso il Lab. di Tecnologie Mediche dell’Istituto Ortopedico Rizzoli, Bologna. La ricerca è stata parzialmente finanziata dalla “Fondazione del Monte di Bologna e Ravenna”. La caratterizzazione dell’osso trabecolare di campioni animali e dei tessuti che lo circondano (come cartilagine e muscolo) è stata condotta tramite mappe di correlazione T1-T2 e D-T2 , dove T1 e T2 sono, rispettivamente, il tempo di rilassamento longitudinale e trasversale del nucleo 1H, e D è il coefficiente di autodiffusione molecolare. E’ stata sviluppata una sequenza di impulsi (Diffusion-Weighted T1-T2) per ottenere mappe T1-T2 pesate in diffusione. I risultati hanno consentito di mettere a punto una procedura che elimina il segnale NMR proveniente da cartilagine e muscolo, rendendo più realistico lo scenario di applicazione in-vivo. I tre diversi dispositivi NMR hanno dato risultati consistenti tra loro e con le immagini micro-CT. L’intera catena di esperimenti condotti ha mostrato che dispositivi NMR single-sided possono essere usati per valutare il BV/TV di ossa trabecolari, con il vantaggio di essere portatili, a basso costo e non invasivi, permettendo campagne di screening della popolazione a rischio osteoporosi.
Resumo:
L’oggetto della tesi è la parte del Palazzo Comunale di Imola detta Palazzo Nuovo. L’intendo è quello di promuovere una serie di interventi volti alla valorizzazione del palazzo, all'adeguamento normativo e al miglioramento sismico della struttura. Nella produzione della tesi si sono quindi succedute varie fasi partendo dalla ricerca storica che ha interessato l’intero Palazzo Comunale. Si è poi proseguito con analisi tematiche mirate a determinare le caratteristiche meccaniche, geometriche e tipologiche della fabbrica. Sono stati valutati gli orizzontamenti, gli allineamenti murari, l’IQM, l’IQCM. Parallelamente è stato individuato il quadro fessurativo delle strutture e il degrado delle superfici. È stato poi elaborato un progetto delle campagna di indagini diagnostiche prima di svolgere l’analisi del comportamento sismico e la valutazione dei cinematismi attivabili. In conclusione è stata elaborata una proposta di progetto che permette l’adeguamento dell’edificio alla normativa vigente e gli interventi per migliorarne il comportamento sismico.
Resumo:
Lo scopo di questo studio è la comprensione della dinamica dello strato limite urbano per città dell’Emilia Romagna tramite simulazioni numeriche. In particolare, l’attenzione è posta sull’ effetto isola di calore, ovvero sulla differenza di temperatura dell’aria in prossimità del suolo fra zone rurali e urbane dovuta all’urbanizzazione. Le simulazioni sono state effettuate con il modello alla mesoscala "Weather Research and Forecasting" (WRF), accoppiato con le parametrizzazioni urbane "Building Effect Parametrization" (BEP) e "Building Energy Model" (BEM), che agiscono a vari livelli verticali urbani. Il periodo di studio riguarda sei giorni caldi e senza copertura nuvolosa durante un periodo di heat wave dell’anno 2015. La copertura urbana è stata definita con il "World Urban Databes and Access Portal Tools" (WUDAPT), un metodo che permette di classificare le aree urbane in dieci "urban climate zones" (UCZ), attraverso l’uso combinato di immagini satellitari e "training areas" manualmente definite con il software Google Earth. Sono state svolte diverse simulazioni a domini innestati, con risoluzione per il dominio più piccolo di 500 m, centrato sulla città di Bologna. Le differenze fra le simulazioni riguardano la presenza o l’assenza delle strutture urbane, il metodo di innesto e tipo di vegetazione rurale. Inoltre, è stato valutato l’effetto dovuto alla presenza di pannelli fotovoltaici sopra i tetti di ogni edificio e le variazioni che i pannelli esercitano sullo strato limite urbano. Per verificare la bontà del modello, i dati provenienti dalle simulazioni sono stati confrontati con misure provenienti da 41 stazioni all’interno dell’area di studio. Le variabili confrontate sono: temperatura, umidità relativa, velocità e direzione del vento. Le simulazioni sono in accordo con i dati osservativi e riescono a riprodurre l’effetto isola di calore: la differenza di temperatura fra città e zone rurali circostanti è nulla durante il giorno; al contrario, durante la notte l’isola di calore è presente, e in media raggiunge il massimo valore di 4°C alle 1:00. La presenza dei pannelli fotovoltaici abbassa la temperatura a 2 metri dell’aria al massimo di 0.8°C durante la notte, e l’altezza dello strato limite urbano dell’ordine 200mrispetto al caso senza pannelli. I risultati mostrano come l’uso di pannelli fotovoltaici all’interno del contesto urbano ha molteplici benefici: infatti, i pannelli fotovoltaici riescono a ridurre la temperatura durante un periodo di heat wave, e allo stesso tempo possono parzialmente sopperire all’alto consumo energetico, con una conseguente riduzione del consumo di combustibili fossili.
Resumo:
In questo elaborato viene trattata la classificazione delle galassie ellittiche e a spirale. Per quanto riguarda gli aspetti morfologici viene in primo luogo esposta la sequenza di Hubble e in seguito tutte le sue declinazioni. Dopodichè viene svolta la parte che tratta gli aspetti fotometrici, ovvero i profili di brillanza delle galassie con le eventuali formule. Infine vengono considerate le caratteristiche cinematiche , trattando le curve di rotazione, che sono fondamentali per comprendere la dinamica delle galassie.
Resumo:
Nella presente tesi si studia lo stato di deformazione di una strada non pavimentata, rinforzata con geotessile, indotto dal passaggio di carrelli semoventi SMPT. L’obiettivo è verificare che le deformazioni siano compatibili con i risultati provenienti dai metodi di calcolo analitici. Durante lo sviluppo ci si avvale di modelli 3-dimensionali del terreno creati ex-novo e di simulazioni alle differenze finite per quanto riguarda l’interazione tra carichi e sovrastruttura. Tale simulazione è stata condotta con il software FLAC3D. Si è simulato dapprima il comportamento della sovrastruttura non rinforzata sollecitata da: singolo asse e carrello a 4 assi. In secondo luogo, si è analizzato il modello del terreno rinforzato, nel quale si introduce una geogriglia a diverse profondità per valutare quella ottimale. Sono stati creati così tre modelli distinti nei quali il rinforzo è posizionato ad 1/3 dell’altezza di aggregato, a 2/3 ed all’interfaccia tra aggregato e primo strato del terreno naturale. Il risultato mostra che il posizionamento ottimale della geogriglia non è all’interfaccia come espresso dalle teorie in merito, ma a 2/3 dell’altezza dello strato di aggregato, dove viene permessa una maggiore deformazione ma un minor stato di sollecitazione del materiale di rinforzo. Infine si valuta in maniera marginale il caso del terreno rinforzato, dove l’altezza dello strato di aggregato viene calcolato con i metodi analitici di Giroud e Noiray (1980) e Giroud e Han (2004), dei quali viene in principio fornita una rigorosa esposizione teorica. In questi ultimi casi, i risultati non sono soddisfacenti. Infatti si è trovato che il raggiungimento del carico di rottura della geogriglia limita fortemente le deformazioni, rendendole così insufficienti per mobilitare le pressioni di contatto richieste. Concludendo si gettano le basi per futuri elaborati, consigliando alcune modifiche da apportare per perfezionare la modellistica dei casi rinforzati.
Resumo:
Nell'ambito delle nanostrutture, un ruolo primario è svolto dai punti quantici. In questo lavoro siamo interessati all'analisi teorica del processo di creazione dei punti quantici: esso può avvenire per eteroepitassia, in particolare secondo il metodo studiato da Stranski-Krastanov. Un film di Germanio viene depositato su un substrato di Silicio in modo coerente, cioè senza dislocazioni, e, a causa del misfit tra le maglie dei due materiali, c'è un accumulo di energia elastica nel film. A una certa altezza critica questa energia del film può essere ridotta se il film si organizza in isole (punti quantici), dove la tensione può essere rilassata lateralmente. L'altezza critica dipende dai moduli di Young (E, υ), dal misfit tra le maglie (m) e dalla tensione superficiali (γ). Il trasporto di materiale nel film è portato avanti per diffusione superficiale. Il punto focale nell'analisi delle instabilità indotte dal misfit tra le maglie dei materiali è la ricerca delle caratteristiche che individuano il modo di crescita più rapido dei punti quantici. In questo lavoro siamo interessati ad un caso particolare: la crescita di punti quantici non su una superficie piana ma sulla superficie di un nanofilo quantico a geometria cilindrica. L'analisi delle instabilità viene condotta risolvendo le equazioni all'equilibrio: a tal fine sono state calcolate le distribuzioni del tensore delle deformazioni e degli sforzo di un nanofilo core-shell con una superficie perturbata al primo ordine rispetto all'ampiezza della perturbazione. L'analisi è stata condotta con particolari condizioni al contorno ed ipotesi geometriche, e diverse scelte dello stato di riferimento del campo degli spostamenti. Risolto il problema elastico, è stata studiata l'equazione dinamica di evoluzione descrivente la diffusione di superficie. Il risultato dell'analisi di instabilità è il tasso di crescita in funzione del numero d'onda q, con diversi valori del raggio del core, spessore dello shell e modo normale n, al fine di trovare il più veloce modo di crescita della perturbazione.
Resumo:
Questo lavoro ha l’obbiettivo di analizzare i principi che stanno alla base della plasmonica, partendo dallo studio dei plasmoni di superficie fino ad arrivare alle loro applicazioni. La prima parte di questa tesi riguarda l’aspetto teorico. Essendo essenzialmente eccitazioni collettive degli elettroni nell'interfaccia fra un conduttore ed un isolante, descritti da onde elettromagnetiche evanescenti, questi plasmoni superficiali, o polaritoni plasmonici di superficie (SPP), vengono studiati partendo dalle equazioni di Maxwell. Viene spiegato come questi SPP nascano dall’accoppiamento dei campi elettromagnetici con le oscillazioni degli elettroni del materiale conduttore e, utilizzando l’equazione dell’onda, si descrivono le loro proprietà in singola interfaccia e in sistemi multistrato. Il quinto capitolo analizza le metodologie di eccitazione di SPP. Sono descritte varie tecniche per l’accoppiamento di fase, per accennare poi a eccitazioni di SPP in guide d’onda, tramite fibra ottica. L’ultimo capitolo della prima parte è dedicato alla seconda tipologia di plasmoni: i plasmoni di superficie localizzati (LSP). Questi sono eccitazioni a seguito dell’accoppiamento fra elettroni di conduzione di nanoparticelle metalliche e il campo elettromagnetico ma che, a differenza dei SPP, non si propagano. Viene esplorata la fisica dei LSP trattando prima le interazioni delle nanoparticelle con le onde elettromagnetiche, poi descrivendo i processi di risonanza in una varietà di particelle differenti in numero, forma, dimensione e ambiente di appartenenza. La seconda parte della tesi riguarda invece alcune applicazioni. Vengono proposti esempi di controllo della propagazione di SPP nel contesto delle guide d’onda, analizzando l’indirizzamento di SPP su superfici planari e spiegando come le guide d’onda di nanoparticelle metalliche possano essere utilizzate per trasferire energia. Infine, viene introdotta la teoria di Mie per la diffusione e l’assorbimento della luce da parte di nanoparticelle metalliche, per quanto riguarda la colorazione apparente, con esempi sulla colorazione vitrea, come la famosa coppa di Licurgo.
Resumo:
In virtù della crescente importanza dell’impiego del software nel settore dei dispositivi medici, come software indipendente (stand-alone) oppure come software incorporato in un altro dispositivo medico, un requisito essenziale per il suo utilizzo è la validazione secondo lo stato dell’arte. La certificazione come dispositivo medico diviene in tal modo fonte di garanzia e di sicurezza per il suo impiego. Il Sistema Informativo di Laboratorio (LIS), supportando il processo operativo dei dispositivi medico-diagnostici in vitro, necessita di una regolamentazione in tale direzione. Il workflow del Laboratorio Analisi, suddiviso in fasi preanalitica, analitica e postanalitica, ha beneficiato dell’introduzione di un sistema informatico in grado di gestire le richieste di esami dei pazienti e di processare e memorizzare le informazioni generate dalle apparecchiature presenti nel laboratorio. Più di ogni altro scenario clinico, il Laboratorio Analisi si presta ad essere organizzato sfruttando un modello di gestione fortemente integrato. Le potenzialità ad esso connesse garantiscono un aumento di produttività, una riduzione degli errori di laboratorio e una maggior sicurezza sia per i professionisti sanitari che per l’intero processo analitico. Per l’importanza clinica affidata al dato di laboratorio, la sua diffusione deve avvenire in maniera veloce e sicura; ciò è possibile se il ritorno elettronico dei risultati al medico richiedente si avvale dello standard HL7, il cui utilizzo è promosso dal modello IHE. La presenza di un unico database sanitario contenente anagrafiche univoche, facilmente aggiornabili, riduce il rischio di errata identificazione del paziente e, in particolare, offre la possibilità di disporre dei risultati di esami precedenti, opportunità particolarmente utile nel delineare il quadro clinico di pazienti cronici. Tale vantaggio e molte altre strategie, in grado di migliorare la qualità dell’assistenza e dell’outcome clinico, permettono di definire il laboratorio clinico come “motore di appropriatezza”.