667 resultados para Sistemi di collaudo, Termografia
Resumo:
La piattaforma continentale della Sardegna nord-orientale si sviluppa sul margine passivo del bacino tirrenico di retroarco. Tramite i dati forniti da strumenti geofisici, quali l’ecoscandaglio a fascio multiplo (Multibeam) e i profili sismici Chirp Sub-bottom, è stato possibile lo studio di piattaforma, a profondità compresa tra 10 m e 135 m, ed interpretare la genesi di morfologie riferibili a processi sedimentari o strutture al di sotto del fondale marino. La piattaforma è stata tripartita in interna, centrale ed esterna e suddivisa in due aree (Area 1 e Area 2), per garantire una descrizione più dettagliata. La parte interna della piattaforma è la più ricca di elementi geomorfologici quali sistemi barriera-laguna, corpi sedimentari interpretati come frecce litorali (spit) sommersi, che si presentano singole o come sequenze che tendono a migrare verso l’attuale linea di costa della Sardegna. La porzione di piattaforma centrale ed esterna, invece, presenta una quantità modesta di morfologie. Nell’Area 2, la più meridionale, è stata individuata un’antica valle fluviale collegata alla sua estremità con quello che era il corrispondente delta o paleo-delta. Tramite i profili sismici CHIRP è stato osservato il basamento affiorante sul fondale marino ricondotto con il basamento ercinico che affiora nella zona a terra della Sardegna nord-orientale. Nell’insieme, tutti gli elementi interpretati, sono stati ricondotti a una piattaforma relitta costituita da antichi sistemi costieri oramai sommersi, sviluppati durante l’ultima trasgressione. In particolare nella zona più interna si è osservata una correlazione tra lo sviluppo di estesi sistemi costieri e i periodi di rallentamento della risalita del livello marino durante l’Olocene.
Resumo:
L'elaborato si prefigge di indagare i sistemi di rimozione del particolato attualmente presenti sul mercato o prossimi alla commercializzazione, installabili su apparecchiature di piccola potenza a combustione di biomasse.
Resumo:
La gestione del traffico è una delle principali problematiche delle città moderne, e porta alla definizione di nuove sfide per quanto riguarda l’ottimizzazione del flusso veicolare. Il controllo semaforico è uno degli elementi fondamentali per ottimizzare la gestione del traffico. Attualmente la rilevazione del traffico viene effettuata tramite sensori, tra i quali vengono maggiormente utilizzate le spire magnetiche, la cui installazione e gestione implica costi elevati. In questo contesto, il progetto europeo COLOMBO si pone come obiettivo l’ideazione di nuovi sistemi di regolazione semaforica in grado di rilevare il traffico veicolare mediante sensori più economici da installare e mantenere, e capaci, sulla base di tali rilevazioni, di auto organizzarsi, traendo ispirazione dal campo dell’intelligenza artificiale noto come swarm intelligence. Alla base di questa auto organizzazione semaforica di COLOMBO vi sono due diversi livelli di politiche: macroscopico e microscopico. Nel primo caso le politiche macroscopiche, utilizzando il feromone come astrazione dell’attuale livello del traffico, scelgono la politica di gestione in base alla quantità di feromone presente nelle corsie di entrata e di uscita. Per quanto riguarda invece le politiche microscopiche, il loro compito è quello di deci- dere la durata dei periodi di rosso o verde modificando una sequenza di fasi, chiamata in COLOMBO catena. Le catene possono essere scelte dal sistema in base al valore corrente della soglia di desiderabilità e ad ogni catena corrisponde una soglia di desiderabilità. Lo scopo di questo elaborato è quello di suggerire metodi alternativi all’attuale conteggio di questa soglia di desiderabilità in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Ogni algoritmo complesso ha bisogno di essere ottimizzato per migliorarne le performance. Anche in questo caso, gli algoritmi proposti hanno subito un processo di parameter tuning per ottimizzarne le prestazioni in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Sulla base del lavoro di parameter tuning, infine, sono state eseguite delle simulazioni per valutare quale degli approcci suggeriti sia il migliore.
Resumo:
In questa tesi si valutano le modalità di gestione ambientale all'interno di un'organizzazione sanitaria, affinché questa possa essere definita ecoefficiente. Per organizzazione ecoefficiente si intende un'impresa in grado di fornire un servizio di qualità per gli utenti, limitando il suo impatto ambientale applicando sistemi di gestione e politiche ambientali corrette. In questo modo la gestione 'green' porterà all'ente ospedaliero dei vantaggi di tipo economico.
Resumo:
A partire dalle osservazioni effettuate oggi dai moderni sensori satellitari, nelle regioni del visibile e del vicino infrarosso dello spettro elettromagnetico, è possibile estrarre informazioni sullo stato fenologico delle colture e caratteristiche proprie della chioma della vegetazione che, combinate all’uso di dati agro-metereologici, e seguendo opportune metodologie, consentono di ricavare mappe di fabbisogno idrico delle colture. Facendo convergere all’interno di un Sistema Informativo Geografico immagini satellitari ad alta risoluzione opportunamente elaborate, informazioni agrometeorologiche provenienti da stazioni di misura a terra e dati vettoriali contenenti i confini del territorio, è oggi pensabile l’implementazione di sistemi di supporto all’irrigazione che siano in grado di produrre informazioni, per la singola azienda agricola, sull’utilizzo ottimale dei volumi d’acqua irrigui necessari alle diverse colture.
Resumo:
L’idea di sviluppare il presente lavoro è scaturita da alcune considerazioni sulla metodologia di preparazione dell’interprete. In particolare è nata dalla consapevolezza che la sfida principale di questa professione risiede nel fatto di dover gestire, durante l’intera carriera, un confronto impari con una quantità potenzialmente infinita di concetti e termini nuovi da assimilare. Ciò è dovuto in primis all’intrinseca vastità della lingua, principale strumento di comunicazione, e implica che ogni volta l’interprete si trovi a operare in uno degli innumerevoli contesti estremamente eterogenei in cui può essere richiesto il suo servizio, caratterizzati ciascuno da una propria cultura e da un suo lessico settoriale sul quale è necessario prepararsi, spesso disponendo solo di pochi giorni per farlo. Una delle strategie possibili per fare fronte in modo efficace al costante flusso di informazioni da assimilare è la specializzazione, ovvero lo studio approfondito e a lungo termine di uno o più settori tematici, con l’acquisizione graduale della relativa terminologia settoriale nelle varie lingue di lavoro. Il presente lavoro propone l’utilizzo di sistemi di rappresentazione grafica della conoscenza come strumenti a supporto di questo processo di specializzazione, con l’aiuto dei quali mettere a fuoco e fissare sia la componente concettuale, sia quella terminologica relativa ad un dominio specifico. A mo’ di esempio è stato scelto il settore moda, poiché ritenuto particolarmente adeguato agli scopi proposti. Il software utilizzato è la versione freeware di MindMaple. L’elaborato è suddiviso in due parti: la prima ne descrive l’impianto teorico e comprende la descrizione dei processi di categorizzazione della realtà da un punto di vista psicologico-cognitivo (cap.1), integrata da una panoramica delle diverse tipologie di sistematizzazione della conoscenza, dei loro ambiti di applicazione (cap.2), e soffermandosi infine sull’approfondimento dei vari tipi di schemi: mentali, concettuali, ecc.(cap.3) Nella seconda parte del lavoro viene dapprima fornita una descrizione generale del dominio al quale appartiene l’argomento dello schema, ossia il settore moda, esponendo le ragioni di tale scelta e soffermandosi su alcune particolarità del lessico settoriale (cap. 4). L’ultimo capitolo è infine dedicato alla presentazione dell’elaborato grafico con un’ introduzione sulle funzionalità principali del software utilizzato, la descrizione dello schema nei vari suoi aspetti, come la struttura e le fasi di sviluppo, nonché alcuni esempi concreti relativi a problematiche terminologiche incontrate sia in fase di sistematizzazione del lessico che durante la ricerca di equivalenti interlinguistici.
Resumo:
Lo scopo di questo lavoro è la caratterizzazione fisica del flat panel PaxScan4030CB Varian, rivelatore di raggi X impiegato in un ampio spettro di applicazioni cliniche, dalla radiografia generale alla radiologia interventistica. Nell’ambito clinico, al fine di una diagnosi accurata, è necessario avere una buona qualità dell’immagine radiologica mantenendo il più basso livello di dose rilasciata al paziente. Elemento fondamentale per ottenere questo risultato è la scelta del rivelatore di radiazione X, che deve garantire prestazioni fisiche (contrasto, risoluzione spaziale e rumore) adeguati alla specifica procedura. Le metriche oggettive che misurano queste caratteristiche sono SNR (Signal-to-Noise Ratio), MTF (Modulation Transfer Function) ed NPS (Noise Power Spectrum), che insieme contribuiscono alla misura della DQE (Detective Quantum Efficiency), il parametro più completo e adatto a stabilire le performance di un sistema di imaging. L’oggettività di queste misure consente anche di mettere a confronto tra loro diversi sistemi di rivelazione. La misura di questi parametri deve essere effettuata seguendo precisi protocolli di fisica medica, che sono stati applicati al rivelatore PaxScan4030CB presente nel laboratorio del Centro di Coordinamento di Fisica Medica, Policlinico S.Orsola. I risultati ottenuti, conformi a quelli dichiarati dal costruttore, sono stati confrontati con successo con alcuni lavori presenti in letteratura e costituiscono la base necessaria per la verifica di procedure di ottimizzazione dell’immagine radiologica attraverso interventi sul processo di emissione dei raggi X e sul trattamento informatico dell’immagine (Digital Subtraction Angiography).
Resumo:
In questo lavoro di tesi si studieranno le acque superficiali e sotterranee del fiume Marecchia, che sono continuamente monitorate da ARPA allo scopo di mantenere l'ambiente idrologico in buono stato. Una particolare attenzione è stata riposta nell'analisi dell'azoto e dei suoi composti, poiché nella conoide del Marecchia si è sempre osservata una forte presenza di questo tipo di composti, che negli anni hanno causato forti danni all'ambiente. Per raggiungere tale obiettivo, è stato fondamentale ripercorrere gli andamenti dei parametri nel corso degli anni, ricorrendo a dati forniti da ARPA e analizzando direttamente campioni raccolti in campo. Nelle acque analizzate sono state riscontrate varie anomalie, soprattutto nel sito in corrispondenza di via Tonale, che potrebbero essere ricondotte al grave problema dell'intrusione dell'acqua di mare in falda, e degli apporti di tali elementi durante le mareggiate; nel sito campionato nei pressi di Vergiano sono state riscontrate concentrazioni di solfati, cloruri e nitrati in aumento, che potrebbero essere causati da scarichi diretti in falda o nelle acque superficiali, oppure dilavamento dei campi da parte dell'acqua piovana. Anche le concentrazioni di nitriti, determinate nei punti di campionamento nel Torrente Ausa, superano notevolmente la concentrazione limite di 0.5 mg/l e tale effetto potrebbe essere causato da un uso indiscriminato di insetticidi, diserbanti e pesticidi composti da elementi ricchi di azoto, oppure dagli scarichi diretti di colorifici e industrie immessi direttamente nel torrente da parte dello stato di San Marino. Quanto evidenziato con questo studio potrebbe essere un incentivo per gli enti regionali, provinciali e comunali per migliorare il monitoraggio di alcune zone del fiume Marecchia e per ottimizzare i sistemi di gestione del territorio.
Resumo:
Un noto centro di ricerca europea ha recentemente modificato un jet convenzionale di classe CS-25 in una piattaforma scientifica. Durante il processo di certificazione delle modifiche, l’impatto delle stesse sulle prestazioni è stato studiato in modo esaustivo. Per lo studio delle qualità di volo, i piloti collaudatori hanno sviluppato una procedura di certificazione ad hoc che consiste in test qualitativi separati della stabilità longitudinale, laterale e direzionale. L’obiettivo della tesi è analizzare i dati di volo, registrati durante i test di collaudo, con l'obiettivo di estrarre informazioni di carattere quantitativo circa la stabilità longitudinale del velivolo modificato. In primo luogo sono state analizzate tre diverse modifiche apportate all’aeromobile e successivamente i risultati sono stati messi a confronto per capirne l’influenza sulle qualità di volo dell’aeromobile. Le derivate aerodinamiche sono state stimate utilizzando la cosiddetta “identificazione dei parametri”, che mira a replicare le variabili registrate durante i test di volo, variando un dato insieme di coefficienti all’interno del modello linearizzato della dinamica dell’aeromobile. L'identificazione del modo di corto periodo ha consentito l'estrazione dei suoi parametri caratteristici, quali il rapporto di smorzamento e la frequenza naturale. La procedura ha consentito inoltre di calcolare il cosiddetto “Control Anticipation Parameter” (CAP), parametro caratterizzante delle qualità di volo di un aeroplano. I risultati ottenuti sono stati messi a confronto con i requisiti prescritti dalla normativa MIL-STD-1797-A, risultando conformi al livello più alto di qualità di volo.
Resumo:
Obiettivo della tesi è riconoscere i fattori di successo e i principali limiti legati all’implementazione dei progetti di recupero degli oli domestici sul territorio italiano. Il problema nasce dall’ esigenza di gestire in modo efficiente la raccolta differenziata di questo rifiuto che, se gettato nello scarico di casa o nel lavandino, provoca impatti ambientali rilevanti rendendo particolarmente difficoltoso e dispendioso il trattamento delle acque reflue e causa gravi danni agli ecosistemi naturali. La questione è da tempo inquadrata e disciplinata dalle direttive comunitarie in materia di rifiuti e dalla strategia “Europa2020” che ha come obiettivo principale una crescita intelligente, sostenibile ed inclusiva. A livello nazionale, invece, il Testo Unico Ambientale assolve alla funzione principale di riordino e coordinamento della disciplina, dando attuazione ai principi comunitari in materia e conformando l’ordinamento nazionale agli obiettivi e alle priorità individuate dal legislatore europeo. Gli oli esausti domestici sono un rifiuto scomodo e complesso da gestire ma la valorizzazione energetica può essere una valida alternativa ai sistemi di smaltimento classici. Infatti, attraverso un semplice processo chimico l’olio da cucina usato può essere trasformato in biodiesel. Questo particolare biocombustibile rispetta tutti i criteri di sostenibilità imposti dalla Comunità Europea e riduce, inoltre, l’impatto della produzione di biocarburanti sull’agricoltura.
Resumo:
Scopo di questa tesi è la trattazione del Principio dei lavori virtuali, il quale si inserisce nel contesto della meccanica classica dei sistemi di punti materiali. Tale principio viene utilizzato per affrontare problemi di statica quali l'equilibrio di un sistema meccanico, ma risulta centrale anche nel contesto più generale della dinamica. Per quanto riguarda i problemi di statica, il principio dei lavori virtuali è un metodo alternativo alle equazioni cardinali, che rappresentano una condizione necessaria e sufficiente per l'equilibrio dei soli corpi rigidi, quindi si occupano di un contesto più limitato.
Resumo:
La presente tesi analizza le principali caratteristiche di due tipi di traduzione: la traduzione audiovisiva, e in particolare il sottotitolaggio, e la traduzione automatica (TA). Obiettivo della nostra ricerca è stabilire quali risultati è possibile aspettarsi dall’impiego di sistemi di traduzione automatica appositamente sviluppati, nella creazione di sottotitoli di qualità professionale. Tale metodo avrebbe il potenziale vantaggio di velocizzare il processo traduttivo, riducendo in parte la pressione cui i sottotitolatori sono sottoposti, dovendo realizzare molte traduzioni in tempi troppo brevi, spesso a scapito della qualità finale del prodotto. Nel presente lavoro, il Capitolo 1 delinea le tappe principali della nascita e dello sviluppo della traduzione automatica, fino ad arrivare ai sistemi di TA più moderni. Nel Capitolo 2 vengono presentati i tipi principali di sistemi di traduzione automatica, con riferimento alle loro potenzialità e alle loro debolezze, soprattutto per quanto riguarda il loro impiego nel settore multimediale. Il Capitolo 3 riguarda la storia del sottotitolaggio, e le condizioni che hanno portato allo sviluppo e alla diffusione delle diverse modalità di traduzione audiovisiva, di cui il sottotitolaggio è una variante. Nel Capitolo 4 descriveremo le fasi principali di questo processo traduttivo, con particolare enfasi sull’importanza del contesto di arrivo e delle esigenze e aspettative dei futuri fruitori del testo finale. I Capitoli 5 e 6 presentano il lavoro di ricerca “sul campo”, svolto per raccogliere il parere di sottotitolatori professionisti e fansubber, attivi in Italia e all’estero, riguardo la possibilità di usare la TA nel loro lavoro. Infine, il capitolo conclusivo fornisce un commento sui risultati ottenuti, e sulle prospettive future riguardo la possibile apertura da parte del sottotitolaggio verso questa nuova tecnologia.
Resumo:
Il crescente utilizzo di sistemi di analisi high-throughput per lo studio dello stato fisiologico e metabolico del corpo, ha evidenziato che una corretta alimentazione e una buona forma fisica siano fattori chiave per la salute. L'aumento dell'età media della popolazione evidenzia l'importanza delle strategie di contrasto delle patologie legate all'invecchiamento. Una dieta sana è il primo mezzo di prevenzione per molte patologie, pertanto capire come il cibo influisce sul corpo umano è di fondamentale importanza. In questo lavoro di tesi abbiamo affrontato la caratterizzazione dei sistemi di imaging radiografico Dual-energy X-ray Absorptiometry (DXA). Dopo aver stabilito una metodologia adatta per l'elaborazione di dati DXA su un gruppo di soggetti sani non obesi, la PCA ha evidenziato alcune proprietà emergenti dall'interpretazione delle componenti principali in termini delle variabili di composizione corporea restituite dalla DXA. Le prime componenti sono associabili ad indici macroscopici di descrizione corporea (come BMI e WHR). Queste componenti sono sorprendentemente stabili al variare dello status dei soggetti in età, sesso e nazionalità. Dati di analisi metabolica, ottenuti tramite Magnetic Resonance Spectroscopy (MRS) su campioni di urina, sono disponibili per circa mille anziani (provenienti da cinque paesi europei) di età compresa tra i 65 ed i 79 anni, non affetti da patologie gravi. I dati di composizione corporea sono altresì presenti per questi soggetti. L'algoritmo di Non-negative Matrix Factorization (NMF) è stato utilizzato per esprimere gli spettri MRS come combinazione di fattori di base interpretabili come singoli metaboliti. I fattori trovati sono stabili, quindi spettri metabolici di soggetti sono composti dallo stesso pattern di metaboliti indipendentemente dalla nazionalità. Attraverso un'analisi a singolo cieco sono stati trovati alti valori di correlazione tra le variabili di composizione corporea e lo stato metabolico dei soggetti. Ciò suggerisce la possibilità di derivare la composizione corporea dei soggetti a partire dal loro stato metabolico.
Resumo:
In questa tesi abbiamo studiato le forme reali di algebre e superalgebre di Lie. Il lavoro si suddivide in tre capitoli diversi, il primo è di introduzione alle algebre di Lie e serve per dare le prime basi di questa teoria e le notazioni. Nel secondo capitolo abbiamo introdotto le algebre compatte e le forme reali. Abbiamo visto come sono correlate tra di loro tramite strumenti potenti come l'involuzione di Cartan e relativa decomposizione ed i diagrammi di Vogan e abbiamo introdotto un algoritmo chiamato "push the button" utile per verificare se due diagrammi di Vogan sono equivalenti. Il terzo capitolo segue la struttura dei primi due, inizialmente abbiamo introdotto le superalgebre di Lie con relativi sistemi di radici e abbiamo proseguito studiando le relative forme reali, diagrammi di Vogan e abbiamo introdotto anche qua l'algoritmo "push the button".
Resumo:
L’ obiettivo della tesi proposta è volto ad illustrare come la malattia diabetica può essere gestita a livello domiciliare attraverso dispositivi di monitoraggio della glicemia sempre più innovativi. La malattia diabetica è un disturbo metabolico che ha come manifestazione principale un aumento del livello di zucchero nel sangue (glicemia) dovuto ad una ridotta produzione di insulina, l’ormone secreto dal pancreas per utilizzare gli zuccheri e gli altri componenti del cibo e trasformarli in energia. È una delle patologie croniche a più ampia diffusione nel mondo, in particolare nei Paesi industrializzati, e costituisce una delle più rilevanti e costose malattie sociali della nostra epoca, soprattutto per il suo carattere di cronicità, per la tendenza a determinare complicanze nel lungo periodo e per il progressivo spostamento dell’insorgenza verso età giovanili. Le tecnologie applicate alla terapia del diabete hanno consentito negli ultimi vent’anni di raggiungere traguardi molto importanti, soprattutto per quanto riguarda l’ottimizzazione del controllo assiduo dei valori glicemici cercando di mantenerli il più costante possibile e ad un livello simile a quello fisiologico. La comunicazione medico-paziente è stata rivoluzionata dalla telemedicina che, offrendo la possibilità di una comunicazione agevole, permette di ottimizzare l’utilizzo dei dati raccolti attraverso l’automonitoraggio glicemico e di facilitare gli interventi educativi. I glucometri, che misurano la glicemia ‘capillare’, insieme ai microinfusori, sistemi di erogazione dell’insulina sia in maniera continua (fabbisogno basale), che ‘a domanda’ (boli prandiali), hanno sostanzialmente modificato l’approccio e la gestione del diabete da parte del medico, ma soprattutto hanno favorito al paziente diabetico un progressivo superamento delle limitazioni alle normali attività della vita imposte dalla malattia. Con il monitoraggio continuo della glicemia 24 ore su 24 infatti, si ha avuto il vantaggio di avere a disposizione un elevato numero di misurazioni puntiformi nell’arco della giornata attraverso sensori glicemici, che applicati sulla pelle sono in grado di ‘rilevare’ il valore di glucosio a livello interstiziale, per diversi giorni consecutivi e per mezzo di un trasmettitore wireless, inviano le informazioni al ricevitore che visualizza le letture ottenute dal sensore. In anni recenti, il concetto di SAP (Sensor-Augmented Insulin Pump) Therapy, è stato introdotto a seguito di studi che hanno valutato l’efficacia dell’utilizzo della pompa ad infusione continua di insulina (CSII, continuous subcutaneous insulin infusion) associato ai sistemi di monitoraggio in continuo della glicemia (CGM, continuous glucose monitoring) per un significativo miglioramento del controllo glicemico e degli episodi sia di ipoglicemia sia di iperglicemia prolungata. Oggi, grazie ad una nuova funzione è possibile interrompere automaticamente l’erogazione di insulina da parte del microinfusore quando la glicemia, rilevata dal sensore, scende troppo velocemente e raggiunge un limite di allarme. Integrare lettura della glicemia, infusione e sospensione automatica dell’erogazione di insulina in caso di ipoglicemia ha ovviamente aperto la porta al pancreas artificiale.