961 resultados para ANCORAGGIO, WEC, PROGETTAZIONE, CATENARIA
Resumo:
Il sistema di acquisizione dati del nuovo layer IBL di ATLAS conta attualmente 15 schede ROD attive sull’esperimento. In ognuna di queste schede sono presenti due catene JTAG per la programmazione e il test. La prima catena è facilmente accessibile da remoto tramite uno standard VME o Ethernet, mentre la seconda è accessibile solo tramite un programmatore JTAG. Accedere alla catena secondaria di tutte 15 le ROD è in primo luogo sconveniente poiché sarebbero necessari 15 programmatori diversi; in secondo luogo potrebbe risultare difficoltoso doverli gestire tutti da un unico computer. Nasce così l’esigenza di sviluppare un’elettronica aggiuntiva con funzione di controllo che riesca, tramite un unico programmatore, a distribuire un segnale JTAG in ingresso a 15 uscite selezionabili in maniera esclusiva. In questa tesi vengono illustrati i vari passaggi che hanno portato alla realizzazione del progetto ponendo attenzione alla scelta, al funzionamento e all’eventuale programmazione dei componenti elettronici che lo costituiscono. Per ogni parte è stato realizzato un ambiente hardware di prototipazione che ne ha garantito il test delle funzionalità. La scheda, basata su un microcontrollore ATmega 328-P, è attualmente in fase di completamento nel laboratorio di progettazione elettronica dell’INFN di Bologna. Il prototipo studiato e realizzato tramite il lavoro di questa tesi verrà anche utilizzato in ambiente CERN una volta che ne sarà convalidata l’affidabilità e potrà anche essere facilmente adattato a tutti gli esperimenti che usano un protocollo JTAG per la programmazione di dispositivi remoti.
Resumo:
Gli obbiettivi di questo lavoro di tesi risultano i seguenti: 1) Progettare e caratterizzare una tipologia di bundle bioriassorbibile attraverso la tecnica dell’elettrofilatura, composto da una miscela di acido poli-(L)lattico (PLLA) e collagene, che cerchi di mimare le proprietà meccaniche dei fascicoli di collagene tendineo umano ed equino; 2) Individuare una metodologia di assemblaggio multiscala dei bundle che permetta la creazione di uno scaffold in grado di mimare la struttura gerarchica di un tendine completo; 3) Applicare la filosofia traslazionale alla progettazione dello scaffold al fine di poter applicare tale tecnologia sia nell’ambito della medicina umana che in quella veterinaria, lavorando nel senso della medicina unica.
Resumo:
La tesi si pone il duplice obiettivo, da un lato, di seguire e approfondire i lavori di restauro e messa in sicurezza delle facciate di palazzo del Podestà, dall'altro, contemporaneamente, di proporre, sviluppare e sperimentare strumenti digitali da utilizzare durante la progettazione e l'esecuzione degli interventi di Restauro. Il settore del restauro architettonico si presenta, più di tanti altri, caratterizzato dalla molteplicità delle figure che intervengono nel corso del processso produttivo e dalla grandissima varietà e quantità di informazioni che entrano in gioco, partendo dalla fase di rilievo dello stato di fatto, fino all'indispensabile documentazione di fine lavori. Prendendo avvio, dunque, dal tirocinio svolto presso la Leonardo S.r.l. di Bologna, si è svolta una riflessione sui processi gestionali ed operativi legati alle operazioni di restauro e ci si è proposti di sviluppare e proporre alcuni strumenti digitali che, senza stravolgere l'attuale processo produttivo, potessero portare benefici operativi all'attività aziendale, facilitare il controllo ed il feedback da parte del committente e migliorare ed alleggerire l'onere della rendicontazione dei lavori. L'orizzonte di questi strumenti è multiplo: per l'attualità è stata sviluppata, in collaborazione con l'ENEA di Bologna, un'applicazione mobile su piattaforma FileMaker per la gestione delle operazioni di restauro attraverso la creazione di un database per la gestione delle analisi e del cantiere; mentre, per uno sviluppo "a regime" fra qualche anno, si è valutata l'efficacia di tecnologie SfM (Structure from Motion) per il rilievo speditivo e la documentazione. Nell'ottica di sviluppi ancora più lontani, infine, le due fasi saranno riunite nella proposta di tecnologie di realtà aumentata con l'obiettivo futuribile di poter passare direttamente dalla realtà e dal rilievo tridimensionale speditivo al progetto ed alla documentazione, senza dovere necessariamente passare da elaborati grafici bidimensionali. Durante tutte queste fasi lo sviluppo delle tecnologie è proceduto di pari passo con il cantiere di palazzo del Podestà, tanto nelle fasi di approfondita ricerca storica, quanto nella produzione delle schede di intervento. L'occasione della ricerca storica ha anche permesso di stilare un semplice regesto, corredato da immagini e bibliografia che raduna ed integra con materiali inediti i numerosi contributi sul tema che si sono succeduti dalla fine del XIX ai giorni nostri.
Resumo:
Il documento illustra il lavoro di analisi dei requisiti, progettazione, implementazione e valutazione di un sistema per l’autenticazione degli utenti delle workstation della sede di Scienze del Dipartimento di Informatica — Scienza ed Ingegneria (DISI) che si integri al sistema di autenticazione d’Ateneo. Il sistema descritto è entrato in produzione il 24 settembre 2014 ed è tuttora operante. Il lavoro percorre le modalità di gestione degli account utente in uso presso il DISI e le nuove modalità di organizzazione del DSA d’Ateneo discutendo le motivazioni per cui le soluzioni standard non possono essere adottate nel caso esposto. Analizzato il processo di login dei sistemi Unix e le librerie coinvolte verrà esposto il nuovo progetto, le particolarità dello sviluppo delle nuove librerie PAM e di Name Service Switch e la loro modalità di funzionamento e configurazione all’interno del cluster Unix. In conclusione vengono presentate una serie di valutazioni che mostrano i vantaggi e il rispetto dei requisiti della nuova implementazione.
Resumo:
Riprogettazione di un palo dissuasore mobile per parcheggio. Dopo la descrizione dello stato dell'arte di un modello già esistente, è stata effettuata un'analisi critica che ha svelato i punti deboli del sistema. Successivamente sono stati individuati obiettivi e vincoli e si è proceduto alla progettazione del nuovo sistema con l'ausilio di software CAD e analisi FEM.
Resumo:
Il lavoro descrive la progettazione, implementazione e test sperimentale di un meccanismo, integrato nel kernel linux 4.0, dedicato al riconoscimento delle perdite dei frame Wi-Fi.
Resumo:
Il lavoro descrive la progettazione, l'implementazione e il test sperimentale di un meccanismo, integrato nel kernel Linux 4.0, dedicato al riconoscimento delle perdite dei frame Wi-Fi.
Resumo:
In questo elaborato viene progettato un filtro per caldaie a biomasse con potenza inferiore ai 35kW. Si raggiungono gli obiettivi di una realizzazione semplice, dal basso costo iniziale e di gestione, sicuro e con elevati rendimenti. Oltre alla progettazione, si forniscono anche gli strumenti per poter dimensionare un filtro che sfrutti tre metodi di cattura: acqua, riempimento strutturato (canali zig zag) e letto fluido (sferette).
Resumo:
L’occhio è l’organo di senso responsabile della visione. Uno strumento ottico il cui principio di funzionamento è paragonabile a quanto avviene in una macchina fotografica. Secondo l’Organizzazione mondiale della sanità (WHO 2010) sulla Terra vivono 285 milioni di persone con handicap visivo grave: 39 milioni sono i ciechi e 246 milioni sono gli ipovedenti. Si evince pertanto la necessità di tecnologie in grado di ripristinare la funzionalità retinica nelle differenti condizioni fisiopatologiche che ne causano la compromissione. In quest’ottica, scopo di questa tesi è stato quello di passare in rassegna le principali tipologie di sistemi tecnologici volti alla diagnosi e alla terapia delle fisiopatologie retiniche. La ricerca di soluzioni bioingegneristiche per il recupero della funzionalità della retina in condizioni fisiopatologiche, coinvolge differenti aree di studio, come la medicina, la biologia, le neuroscienze, l’elettronica, la chimica dei materiali. In particolare, sono stati descritti i principali impianti retinali tra cui l’impianto di tipo epiretinale e subretinale, corticale e del nervo ottico. Tra gli impianti che ad oggi hanno ricevuto la certificazione dell’Unione Europea vi sono il sistema epiretinale Argus II (Second Sight Medical Products) e il dispositivo subretinale Alpha IMS (Retina Implant AG). Lo stato dell’arte delle retine artificiali, basate sulla tecnologia inorganica, trova tuttavia limitazioni legate principalmente a: necessità di un’alimentazione esterna, biocompatibilità a lungo termine, complessità dei processi di fabbricazione, la difficoltà dell’intervento chirurgico, il numero di elettrodi, le dimensioni e la geometria, l’elevata impedenza, la produzione di calore. Approcci bioingegneristici alternativi avanzano nel campo d’indagine della visione artificiale. Fra le prospettive di frontiera, sono attualmente in fase di studio le tecnologie optogenetiche, il cui scopo è la fotoattivazione di neuroni compromessi. Inoltre, vengono annoverate le tecnologie innovative che sfruttano le proprietà meccaniche, optoelettroniche e di biocompatibilità delle molecole di materiali organici polimerici. L’integrazione di funzioni fotoniche nell’elettronica organica offre nuove possibilità al campo dell’optoelettronica, che sfrutta le proprietà ottiche e elettroniche dei semiconduttori organici per la progettazione di dispositivi ed applicazioni optoelettronici nel settore dell’imaging e del rilevamento biomedico. La combinazione di tecnologie di tipo organico ed organico potrebbe aprire in prospettiva la strada alla realizzazione di dispositivi retinici ed impianti di nuova generazione.
Resumo:
L'obiettivo di questo studio è quello di mettere in luce i diversi fattori che, negli ultimi anni, hanno portato ad un impiego sempre più diffuso della PET in ambito clinico, in Italia e all'estero. La recente integrazione delle informazioni funzionali della PET con le informazioni morfologiche di una TC, mediante tomografi ibridi PET/CT, ha radicalmente cambiato l’approccio alla stadiazione e al follow-up dei pazienti, rendendo questa tecnica una delle massime espressioni della moderna diagnostica per immagini, al giorno d'oggi utilizzata principalmente in campo oncologico. Nei primi capitoli, dopo un breve richiamo alla struttura della materia, ai concetti di radiazione e decadimento radioattivo, si analizzano le apparecchiature e i principi di funzionamento della tecnica PET/TC. Successivamente, nel capitolo 4 sono illustrati i diversi tipi di radiofarmaci e le loro applicazioni, con un’attenzione particolare al PSMA, impiegato principalmente nei tumori alla prostata, reni, tiroide e mammella. Proprio alla cura e alla diagnosi del tumore alla prostata è dedicato il capitolo 5, con un breve confronto tra l’ormai accreditata PET/CT con 18F-Colina e l’innovativa Ga-PSMA PET/CT. Nel capitolo 6 si prendono in considerazione le procedure e i protocolli da seguire durante un esame PET/TC, le misure di preparazione, prevenzione e le precauzioni che pazienti e personale sanitario devono osservare. Nel capitolo 7, infine, un breve cenno alle ultime innovazioni tecnologiche: imaging ibrido PET/MRI e fotomoltiplicatori SiPM. Le fonti bibliografiche citate constano principalmente di articoli in lingua inglese pubblicati sul portale PubMed. Parte della documentazione relativa alla progettazione dell'apparecchiatura PET/CT e al suo utilizzo è, invece, stata fornita da personale dell'arcispedale Santa Maria Nuova di Reggio Emilia.
Resumo:
Nei primi vent’anni, la ricerca in ambito fotovoltaico si è focalizzata sull’evoluzione di quelle tecnologie associate alla semplice cella ed al sistema intero, per offrire miglioramenti con particolare riguardo al fronte dell’efficienza. Negli ultimi decenni, lo studio sull’energia rinnovabile ha ampliato i propri confini, sino a quella branca denominata elettronica di potenza, che ne permette la conversione e lo sfruttamento da parte dell’utente. L’elaborato si propone quindi di apportare un contributo verso tale direzione, teorico piuttosto che pratico, esaminando dapprima il mondo che effettivamente circonda l’impianto fotovoltaico grid-connected e successivamente ponderando e pianificando le scelte che conseguono dall’analisi letteraria. Particolare attenzione sarà rivolta al concetto di multilivello relativo agli inverter e agli aspetti che ne comportano il largo utilizzo nell’elettronica di potenza. Si stima che i primi brevetti risalgano a circa trent’anni orsono e uno di questi, tracciabile, riguarderebbe la configurazione a cascata di full-bridge, alimentati separatamente in DC, per ottenere a valle una scala di tensioni AC. Per mezzo di manipolazioni, nascerà in seguito il diode-clamped, attuale predecessore del Neutral Point Clamped T-Type Inverter. Si introdurranno pertanto le principali caratteristiche che contraddistinguono il convertitore, peculiare riguardo per la configurazione single leg nonché trifase. Ardua sarà la scelta sulla tecnica di controllo dell’inverter, sia per quanto concerne la fase simulativa che quella realizzativa, in quanto il dispositivo è indubbiamente considerato innovativo nel proprio campo di appartenenza. Convalidando la letteratura per mezzo di opportune simulazioni, si potrà procedere alla progettazione e quindi all’assemblaggio della scheda che effettivamente include l’inverter. Il lavoro implicherà numerose prove, effettuate in svariate condizioni di funzionamento, al fine di sostenere le conclusioni teoriche.
Resumo:
Progettazione ed ottimizzazione di parte di un sistema pico-idroelettrico ad acqua fluente (potenza < 5 kW) per sfruttare grandi corsi d’acqua.
Resumo:
Del granulato di ossido di stronzio (anche nella formula carbonato) è stato testato come nuovo possibile materiale di utilizzo per la cattura ad alta temperatura di diossido di carbonio da effluenti gassosi di scarto. Sono stati condotti diversi esperimenti con strumentazioni già preposte, quali test termogravimetrici, microscopia elettronica (SEM) e Xray (XRD). Mentre per la sperimentazione in quantità più rilevanti di materiale è stato costruito un impianto a letto fisso ex novo. Le prove TG hanno evidenziato una capacità media di sorbente parti a circa il 5% in massa di ossido, a temperature tra i 1100°C e i 1200°C, in situazione di regime (dopo numerosi cicli di carb/calc), con una buona conservazione nel tempo delle proprietà adsorbitive, mentre per le prove a letto fisso, si è registrato un calo di valori variabile tra il 3 e il 4%, con un netto miglioramento nel caso di calcinazione in vapore surriscaldato fino al 5%. Il trattamento in vapore ha sortito l’importante effetto di calcinazione del diossido di carbonio dal sorbente, quindi facilmente separabile dal flusso in uscita, misurato tramite cattura in una soluzione di idrossido di bario. Importanti fenomeni di sintering e densificazione hanno portato ad occludere completamente la camera di reazione sviluppando notevoli sovrappressioni interne. Tali fenomeni sono stati approfonditi tramite analisi SEM e XRD. Si è constatato un aumento notevole della grandezza dei granuli in caso di trattamento in vapore con la formazione di legami stabili e con conservazione della porosità. Nel caso di trattamento senza vapore surriscaldato i granuli hanno sinterizzato tramite formazione di legami, ma sempre con conservazione della macroporosità. Il lavoro di tesi è stato inquadrato nel contesto tecnologico al riguardo le tecniche CCS esistenti ed in progetto, con un attento studio bibliografico riguardo lo stato dell’arte, impianti esistenti, costi, metodi di cattura usati, metodologie di trasporto dei gas, metodologie di stoccaggio esistenti e in progetto. Si sono considerati alcuni aspetti economici per sviluppare un modello previsionale di spesa per una possibile applicazione di cattura per un impianto di produzione energetica. Con la progettazione e dimensionamento di un sistema integrato di adsorbimento tramite l’accoppiamento di 2 reattori dedicati ai cicli di carbonatazione e calcinazione del materiale sorbente. Infine si sono considerati gli aspetti salienti dello stoccaggio del diossido di carbonio in reservoir tramite le tecniche di EOR e EGR (Enhanced Oil/Gas Recovery) utilizzando la stessa CO2 come fluido spiazzante degli idrocarburi in posto. Concludendo il lavoro di tesi e di sperimentazione ha contribuito in modo tangibile allo scopo prefissato, andando a caratterizzare un nuovo materiale per la cattura di diossido di carbonio da effluenti gassosi ad alta temperatura, ed andando a verificare un’importante fenomeno rigenerativo non previsto delle capacità sorbitive dei materiali sottoposti a test.
Resumo:
La conoscenza e la determinazione dell’equazione cinetica è indispensabile per lo studio, la progettazione e l’ottimizzazione di qualsiasi reattore chimico. Normalmente l’analisi cinetica viene eseguita con reattori che operano in maniera quanto più prossima a condizioni ideali in modo da rendere più facile e meno affetta da errori l’interpretazione dei risultati sperimentali. In fotocatalisi è invece di fatto impossibile realizzare, anche in presenza di una perfetta miscelazione, un sistema ideale in cui si abbia un’uniforme distribuzione di tutti i parametri che influenzano la velocità di reazione. Infatti in un reattore fotocatalitico il campo di radiazione è intrinsecamente non uniforme poiché l’assorbimento della radiazione e quindi la sua attenuazione sono necessari per l’attivazione della reazione. Pertanto l’impossibilità di realizzare un sistema fotocatalitico che operi in condizioni quanto più possibile prossime all’idealità e l’incapacità di misurare sperimentalmente i valori locali di velocità di reazione e di velocità di assorbimento dei fotoni possono rendere complessa una corretta analisi cinetica. In questo lavoro vengono studiate le modalità con cui condurre comunque una rigorosa analisi cinetica di un sistema fotocatalitico slurry, nel quale il fotocalizzatore è disperso come polvere fine in sospensione nella soluzione reagente. La reazione studiata è quella di mineralizzazione dell’acido formico. Sono stati impiegati due reattori con geometrie ed illuminazioni differenti: un reattore piano illuminato con luci LED ed un reattore anulare con lampada lineare fluorescente blacklight. È stata verificata la validità di una particolare equazione cinetica, che tiene conto dell’effetto non lineare della velocità specifica (cioè per unità di massa di catalizzatore) di assorbimento dei fotoni e delle concentrazioni del reagente, dell’ossigeno e del fotocatalizzatore. Sono state inoltre determinate le condizioni critiche che possono portare ad errori nell’analisi cinetica ed è stata dimostrata l’utilità di un modello matematico che tiene conto dei bilanci di energia raggiante, di materia nonché del campo di moto. Il modello matematico, in cui compare un solo parametro aggiustabile (il tempo caratteristico di reazione od equivalentemente la costante cinetica), è in grado di riprodurre molto soddisfacentemente i risultati sperimentali in tutte le diverse condizioni operative: diversa geometria di reattore, diversa illuminazione, differente spessore ottico, diverse contrazioni di substrato e di fotocatalizzatore. Infine è stato mostrato come l’equazione cinetica ad una sola costante cinetica, che è stata adottata, descriva meglio la cinetica della reazione fotocatalitica in esame di altre equazioni a due o più costanti cinetiche spesso utilizzate in fotocatalisi e basate sulla teoria di Langmuir-Hinshelwood, a dimostrazione di un diverso meccanismo di reazione.
Resumo:
In recent years, Deep Learning techniques have shown to perform well on a large variety of problems both in Computer Vision and Natural Language Processing, reaching and often surpassing the state of the art on many tasks. The rise of deep learning is also revolutionizing the entire field of Machine Learning and Pattern Recognition pushing forward the concepts of automatic feature extraction and unsupervised learning in general. However, despite the strong success both in science and business, deep learning has its own limitations. It is often questioned if such techniques are only some kind of brute-force statistical approaches and if they can only work in the context of High Performance Computing with tons of data. Another important question is whether they are really biologically inspired, as claimed in certain cases, and if they can scale well in terms of "intelligence". The dissertation is focused on trying to answer these key questions in the context of Computer Vision and, in particular, Object Recognition, a task that has been heavily revolutionized by recent advances in the field. Practically speaking, these answers are based on an exhaustive comparison between two, very different, deep learning techniques on the aforementioned task: Convolutional Neural Network (CNN) and Hierarchical Temporal memory (HTM). They stand for two different approaches and points of view within the big hat of deep learning and are the best choices to understand and point out strengths and weaknesses of each of them. CNN is considered one of the most classic and powerful supervised methods used today in machine learning and pattern recognition, especially in object recognition. CNNs are well received and accepted by the scientific community and are already deployed in large corporation like Google and Facebook for solving face recognition and image auto-tagging problems. HTM, on the other hand, is known as a new emerging paradigm and a new meanly-unsupervised method, that is more biologically inspired. It tries to gain more insights from the computational neuroscience community in order to incorporate concepts like time, context and attention during the learning process which are typical of the human brain. In the end, the thesis is supposed to prove that in certain cases, with a lower quantity of data, HTM can outperform CNN.