895 resultados para software OCR, contatori di consumo domestici
Resumo:
Tesi mirata allo studio dei protocolli di routing IP utilizzati per l'inoltro dei pacchetti in una topologia non banale. Sono state utilizzate macchine Linux Raspberry Pi per il loro costo e ingombro per costruire la rete. In particolare, è stata implementata una rete caratterizzata da sette router divisi in tre aree distinte, ai quali sono state connesse sette LAN. Si è installato e utilizzato il software quagga per attivare il protocollo OSPF (Open Shortest Path First). Per limitare i dispositivi fisici si è utilizzato il software Mininet per virtualizzare switch e LAN. Infine, sono stati trattati elementi teorici del routing su Internet, applicati alla rete creata per verificarne il funzionamento.
Resumo:
In letteratura è noto che la variabilità cinematica dei bambini durante il cammino è molto maggiore se confrontata con quella di soggetti adulti. Ciò rende difficile definire lo sviluppo del cammino basandosi sull'analisi di angoli articolari. In questo lavoro è stata valutata la traiettoria del centro di massa come possibile fattore caratterizzante la maturazione del cammino durante la crescita: l’ipotesi è che questa risulti, nei bambini, più ripetibile rispetto al pattern degli angoli articolari. È stata analizzata la cinematica del cammino di soggetti appartenenti a tre fasce di età differenti (4 anni, 6 anni, giovani adulti), mediante un sistema di stereofotogrammetria e marker riflettenti (protocollo Plug-in Gait). Lo studio è stato condotto avvalendosi di software per l’acquisizione, l’elaborazione (BTS Smart-DX) e l’analisi statistica (SPM1D) dei parametri d’interesse. La variabilità è stata analizzata secondo tre diverse modalità (Inter-subject, Intra-subject, Inter-test). È stato osservato un trend simile in termini di variabilità del centro di massa tra bambini e adulti. La variabilità cinematica degli angoli articolari è invece risultata più alta nei bambini, in maniera significativa per tutte e tre le modalità citate. L’ipotesi è stata confermata per i soggetti che hanno preso parte allo studio: i bambini, pur avendo raggiunto un relativo sviluppo del cammino, presentano una variabilità segmentale maggiore di quella degli adulti, mentre la variabilità della traiettoria del centro di massa è risultata essere simile a quella dei soggetti maturi.
Resumo:
Il lavoro è stato svolto presso IEMCA, azienda attiva nel settore della produzione di caricatori automatici di barre, e si è composto a grandi linee di tre fasi. Nella prima di queste tre fasi è stata analizzata la strumentazione adatta ad eseguire i rilievi di vibrazioni disponibile in azienda con il fine di comprenderne le potenzialità. Questa prima parte del lavoro si è conclusa con il consolidamento di una buona conoscenza del software e dell'hardware a disposizione. Nella seconda fase ci si è concentrati invece sull'elaborazione di un metodo di analisi delle vibrazioni applicabile alle macchine prodotte da IEMCA. A questo scopo si è studiata la macchina denominata Master80Up con il fine di ricavare una procedura di indagine estendibile in futuro anche agli altri sistemi automatici prodotti da IEMCA. La scelta di questo particolare modello è discesa dall'essere in corso di aggiornamento nel momento particolare in cui si è svolto il lavoro. La seconda fase ha visto inizialmente l'elaborazione di un modello fisico della macchina, utilizzato poi nel seguito come supporto all'esecuzione dell'analisi della vibrazione libera della struttura che ha permesso di ottenere una stima qualitativa delle frequenze naturali e dei modi di vibrare del sistema. Nella terza fase infine si è ripetuta la procedura elaborata sulla versione aggiornata della macchina, denominata Master80HD, per verificare gli effetti di irrobustimenti strutturali studiati dall'ufficio tecnico i quali si sono rivelati utili in generale alla riduzione della vibrazione della macchina.
Resumo:
Questo documento affronta le novità ed i vantaggi introdotti nel mondo delle reti di telecomunicazioni dai paradigmi di Software Defined Networking e Network Functions Virtualization, affrontandone prima gli aspetti teorici, per poi applicarne i concetti nella pratica, tramite casi di studio gradualmente più complessi. Tali innovazioni rappresentano un'evoluzione dell'architettura delle reti predisposte alla presenza di più utenti connessi alle risorse da esse offerte, trovando quindi applicazione soprattutto nell'emergente ambiente di Cloud Computing e realizzando in questo modo reti altamente dinamiche e programmabili, tramite la virtualizzazione dei servizi di rete richiesti per l'ottimizzazione dell'utilizzo di risorse. Motivo di tale lavoro è la ricerca di soluzioni ai problemi di staticità e dipendenza, dai fornitori dei nodi intermedi, della rete Internet, i maggiori ostacoli per lo sviluppo delle architetture Cloud. L'obiettivo principale dello studio presentato in questo documento è quello di valutare l'effettiva convenienza dell'applicazione di tali paradigmi nella creazione di reti, controllando in questo modo che le promesse di aumento di autonomia e dinamismo vengano rispettate. Tale scopo viene perseguito attraverso l'implementazione di entrambi i paradigmi SDN e NFV nelle sperimentazioni effettuate sulle reti di livello L2 ed L3 del modello OSI. Il risultato ottenuto da tali casi di studio è infine un'interessante conferma dei vantaggi presentati durante lo studio teorico delle innovazioni in analisi, rendendo esse una possibile soluzione futura alle problematiche attuali delle reti.
Resumo:
L'informatica, assieme alle sue innovazioni tecnologiche, offre al mondo d'oggi uno scenario in continuo sviluppo evolutivo che permette di facilitare alcune necessità dell'essere umano. Con la nascita di internet e dei nuovi dispositivi cellulari, la comunicazione è stata resa più malleabile e immediata. Tuttavia, le nuove tecnologie utilizzano infrastrutture complesse che non sempre sono ampiamente sfruttate a causa delle loro esigenze quali scalabilità, risposte in tempo reale, o tolleranza. Per far fronte a queste caratteristiche, una nuova tendenza del software è quella di fornire autonomia e pro-attività alle entità nel sistema in modo da incrementare la loro interazione. Queste caratteristiche permettono di responsabilizzare i soggetti rendendo il sistema auto-organizzato, con una migliore scalabilità,robustezza, e quindi riducendo le esigenze di calcolo di ciascuna entità. Lo studio dei sistemi auto-organizzanti è stato ispirato alla natura, e in particolare, ai sistemi biologici. Questi sistemi mostrano le caratteristiche interessanti per gli scenari pervasivi, poichè sono robusti e resistenti, in grado di adattarsi al contesto ambientale e quindi reagiscono a determinate modifiche che si verificano nell'ambiente comportandosi di conseguenza. L'ingegneria dell'auto-organizzazione ha il compito di simulare e testare questi comportamenti presentando uno schema progettuale completo che permetta di presentare soluzioni ricorrenti a problemi noti. Tale schema è definito in termini informatici design pattern. Le entità, definite agenti, per interagire e comunicare tra di loro hanno bisogno di coordinarsi tramite un modello specifico. Nel nostro caso è stato scelto TuCSoN, poichè riesce a separare uno spazio dedicato allo scambio di informazioni da uno spazio dedicato alle specifiche che permette di descrivere delle politiche di comportamento per sistemi MAS implementati nell'opportuno linguaggio di programmazione ReSpecT.
Resumo:
Il Diabete, modello paradigmatico delle malattie croniche, sta assumendo negli ultimi anni le proporzioni di una pandemia, che non ha intenzione di arrestarsi, ma del quale, con l’aumento dei fattori di rischio, aumentano prevalenza e incidenza. Secondo stime autorevoli il numero delle persone con diabete nel 2035 aumenterà fino a raggiungere i 382 milioni di casi. Una patologia complessa che richiede lo sforzo di una vasta gamma di professionisti, per ridurre in futuro in maniera significativa i costi legati a questa patologia e nel contempo mantenere e addirittura migliorare gli standard di cura. Una soluzione è rappresentata dall'impiego delle ICT, Information and Communication Technologies. La continua innovazione tecnologica dei medical device per diabetici lascia ben sperare, dietro la spinta di capitali sempre più ingenti che iniziano a muoversi in questo mercato del futuro. Sempre più device tecnologicamente avanzati, all’avanguardia e performanti, sono a disposizione del paziente diabetico, che può migliorare tutti processi della cura, contenendo le spese. Di fondamentale importanza sono le BAN reti di sensori e wearable device, i cui dati diventano parte di un sistema di gestione delle cure più ampio. A questo proposito METABO è un progetto ICT europeo dedicato allo studio ed al supporto di gestione metabolica del diabete. Si concentra sul miglioramento della gestione della malattia, fornendo a pazienti e medici una piattaforma software tecnologicamente avanzata semplice e intuitiva, per aiutarli a gestire tutte le informazioni relative al trattamento del diabete. Innovativo il Clinical Pathway, che a partire da un modello Standard con procedimenti semplici e l’utilizzo di feedback del paziente, viene progressivamente personalizzato con le progressive modificazioni dello stato patologico, psicologico e non solo. La possibilità di e-prescribing per farmaci e device, e-learning per educare il paziente, tenerlo sotto stretto monitoraggio anche alla guida della propria auto, la rendono uno strumento utile e accattivante.
Resumo:
In questo lavoro è presentato l'utilizzo della spettroscopia di assorbimento di raggi X applicata all'indagine inerente il numero e la natura degli atomi vicini di un centro metallico a due diversi stati di ossidazione [Cu(I) e Cu(II)] all'interno di complessi fosfinici e/o azotati. Gli spettri sono stati registrati nella loro completezza, comprendendo sia la soglia sia lo spettro esteso di assorbimento, e le transizioni elettroniche 1s→3d e 1s→4p sono state oggetto d'esame per avere indicazioni circa l'intorno locale del fotoassorbitore (l'atomo centrale). La tecnica più utilizzata, tuttavia, è stata l'analisi EXAFS (Extended X-ray Absorption Fine Structure) che ha permesso di determinare l’effettiva coordinazione di Cu(I) e (II) nel caso dei complessi studiati. Il metodo consiste nella costruzione di un segnale teorico più simile possibile a quello ottenuto sperimentalmente, e l’approccio per raggiungere questo obiettivo consiste nel seguire una procedura di fitting eseguita computazionalmente (tramite il pacchetto software GNXAS), per la quale è necessario un modello strutturale già esistente o creato ex novo da una molecola di partenza molto simile. Sarà presentato lo studio degli esperimenti ottenuti su campioni sia solidi che in soluzione: in questo modo è stato possibile effettuare un confronto tra le due forme dello stesso composto nonché si è potuto osservare i cambiamenti riguardanti l’interazione metallo-solvente a diverse concentrazioni. Come sarà mostrato in seguito, l’analisi sui solidi è risultata più affidabile rispetto a quella riferita alle soluzioni; infatti il basso rapporto segnale/rumore caratterizzante le misure di queste ultime ha limitato le informazioni ottenibili dai relativi spettri di assorbimento di raggi X.
Resumo:
Introduzione alla tecnologia PCB. Introduzione software design Circuit Maker Conversione circuito per micro-potenze con CircuitMaker
Resumo:
Nell'ottica di un futuro riprogetto, totale o parziale, del ventilatore della galleria del vento del progetto CICLoPE dell'Università di Bologna, è stato messo a punto, grazie a modelli matematici di letteratura, un algoritmo per la determinazione della geometria delle pale di un fan. La procedura si basa su ipotesi di incompressibilità e assenza di vortici di estremità ed è in grado di fornire la geometria del ventilatore una volta che sono state fissate: le condizioni richieste nella sezione di test, l'efficienza del tunnel e alcune proprietà del ventilatore stesso (ad esempio tipologia di profilo aerodinamico e numero di pale). L'algoritmo è in grado di lavorare solamente con la configurazione ventilatore seguito da profili raddrizzatori, ma è in previsione un'estensione che consentirà di studiare anche la configurazione a fan controrotanti (come quella del CICLoPE). Con questo software sono state progettate numerose soluzioni diverse per studiare il legame tra rendimento e geometria del ventilatore. Inoltre sono stati individuati i parametri che permettono di ottenere una pala con rastremazione e svergolatura trascurabili, con lo scopo di abbassare i costi del manufatto. In particolare è stato dimostrato come le configurazioni con diametro della nacelle grande (superiore al 65\% del diametro della sezione di potenza) siano particolarmente adatte a fornire rendimenti alti con la minima complicatezza della pala. Per quanto riguarda l'efficienza aerodinamica del profilo, i test comparativi indicano che questo parametro influisce relativamente poco sul rendimento del macchinario ma modifica profondamente la geometria della pala. Efficienze elevate tendono, secondo lo studio, a richiedere pale estremamente rastremate e poco svergolate; questo porta a preferire l'adozione di profili mediamente efficienti ma dall'ampio intervallo operativo in termini di angolo di attacco.
Resumo:
Il presente lavoro, svolto presso il servizio di Fisica Sanitaria dell’Azienda Ospedaliera Universitaria di Parma, consiste nello sviluppo di un metodo innovativo di radioterapia adattativa. Il metodo è stato applicato a pazienti affetti da varie patologie, trattati con tecnica VMAT, (Volumetric Modulated Arc Therapy), altamente conformata al target. Il metodo sviluppato si compone di due fasi: nella prima fase vengono effettuate due analisi su immagini portali, di ricostruzione della dose all'isocentro e l'analisi gamma 2D. Se almeno una di queste fallisce, si interviene con la seconda fase, che vede l'acquisizione della CBCT del paziente e la taratura in densità elettronica della stessa. Si calcola dunque il piano su CBCT, previa operazione di contouring da parte del medico e, infine, si esegue l'analisi gamma 3D sulle matrici di dose calcolate sulla CT e sulla CBCT del paziente, quantificando gli indici gamma sulle strutture PTV, CTV e OAR di interesse clinico. In base ai risultati, se necessario, si può intervenire sul piano di trattamento. Le analisi gamma 2D e 3D sono state svolte avvalendosi di un software toolkit chiamato GADD-23 (Gamma Analysis on 2D and 3D Dose Distributions) implementato e sviluppato appositamente in ambiente Matlab per questo lavoro di tesi; in particolare, la realizzazione di GADD-23 è stata resa possibile grazie all'interazione con due software di tipo open-source, Elastix e CERR, specifici per l’elaborazione e la registrazione di immagini mediche. I risultati ottenuti mostrano come il metodo sviluppato sia in grado di mettere in luce cambiamenti anatomici che alcuni pazienti hanno subìto, di tipo sistematico, in cui è possibile prendere in considerazione una ripianificazione del trattamento per correggerli, o di tipo casuale, sui quali può essere utile condurre l'attenzione del medico radioterapista, sebbene non sia necessario un replanning.
Resumo:
Analisi di un sistema per il posizionamento e la movimentazione di sensori in galleria del vento. In particolare l’analisi è stata focalizzata sul sistema di movimentazione sonde (traversing) presente nel long-pipe in CICLoPE (Center for International Cooperation in Long Pipe Experiments). La struttura menzionata nasce per far fronte ad alcuni dei limiti presenti negli attuali laboratori fluidodinamici per lo studio della turbolenza ad alti numeri di Reynolds. Uno degli obiettivi del centro è quello di caratterizzare le più piccole strutture caratteristiche della turbolenza. Al fine di permettere tale studio era necessario migliorare il traversing esistente per ottenere movimenti ad alta precisione, in modo da raggiungere lo stesso ordine di grandezza delle scale più piccole della turbolenza. Il miglioramento di tale strumentazione è stato necessario anche per fornire un valido supporto alle metodologie esistenti per la determinazione della distanza tra sonde e parete, che resta una delle difficoltà nello studio della turbolenza di parete. L’analisi del traversing, svolta attraverso più test, ha fatto emergere problemi sia nella struttura del sistema, sia nel software che gestisce il motore per la movimentazione. La riprogrammazione del software e la rettifica di alcuni componenti del sistema hanno permesso di eliminare gli errori emersi. Le piccole imprecisioni restanti durante la movimentazione, non eliminabili con un’implementazione software, verranno totalmente superate grazie all’impiego del nuovo motore dotato di un encoder rotativo che sarà in grado di retroazionare il sistema, fornendo il reale spostamento effettuato.
Resumo:
Oggetto di questa tesi è lo studio di una rete di teleriscaldamento (TLR) preesistente, la rete di Corticella (Bo) ipotizzando la presenza di sottostazioni di scambio termico attive. Inizialmente sono state presentate le sottostazioni di scambio termico sia tradizionali che attive. Nelle tradizionali ci si è soffermato sul tipo di regolazione che può avvenire. Per quanto riguarda le sottostazioni di scambio termico attive son stati esaminati i 4 layout che permettono uno scambio termico bidirezionale di energia termica. E’ stato presentato il software IHENA (intelligent Heat Energy Network Analysis) creato dal dipartimento di ingegneria industriale, che ha permesso di effettuare le simulazioni sulla rete analizzata. Viene mostrato l’algoritmo di Todini-Pilati generalizzato dall’utilizzo delle equazioni di Darcy-Weisbach su cui si basa il motore di calcolo. Inoltre vengono presentati i vari input che è necessario inserire per ottenere il calcolo della rete. Dopo nozioni di base relative al teleriscaldamento attivo e la presentazione del software utilizzato si è passati alla vera e propria analisi della rete di teleriscaldamento. Sono state effettuate varie simulazioni per vedere l’andamento della rete di Corticella sia considerandola passiva (come nella realtà) che ipotizzandola attiva tramite l’inserimento di sottostazioni di scambio termico ative. Le analisi condotte riguardano i seguenti punti. a) E’ stata presentata la rete di Corticella cosi come è andando a studiare quindi il caso base. b) Sono state svolte delle analisi per vedere come si comportava la rete nel caso in cui venivano variati dei parametri operativi come i carichi termici richiesti dalle utenze. c) Sono stati valutati i percorsi più critici. d) Si è condotta un analisi sulla regolazione al variare delle temperature esterne. Dopo l'analisi del caso base sono state introdotte delle sottostazioni di scambio termico attive, prima solo una, e poi varie lungo determinati percorsi. Le valutazioni effettuate mettevano in primo piano gli andamenti della temperatura nei percorsi, la potenza termica generata dalla sorgente, la temperatura di ritorno in centrale e se si verificano delle problematiche sugli scambiatori di calore. In queste simulazioni sono stati valutati tutti e quattro gli schemi utilizzabili. Infine è stata effettuata un analisi comparativa tra le varie soluzioni studiate per poter mettere a confronto i casi. In particolare anche qui si sono voluti confrontare i valori di potenza spesa per il pompaggio, temperatura di ritorno in centrale e potenza termica offerta dalla sorgente.
Resumo:
In questo elaborato sono state messe a confronto differenti procedure per la creazione di file in formato STL a partire da dati tomografici. Questo tipo di formato di dati è attualmente molto richiesto in quanto è adottato dalle stampanti 3D. I tre software presi in analisi, nello specifico, sono: DEVIDE, un programma open source, compatibile sia con Windows che con Linux, sviluppato presso la Delft University of Technology, nei Paesi Bassi; Imagej, un programma informatico di elaborazione digitale delle immagini, accessibile a tutti, basato su Sun-Java e sviluppato dal National Institutes of Health negli Stati Uniti; e infine VGStudioMax, un software sviluppato in Germania dalla VolumeGraphics GmbH. Un confronto diretto di questi software ha portato ad evidenziare i pregi ed i difetti d’ognuno di questi programmi, prendendo come criteri svariati fattori, tra cui la possibilità di scelta di uno o più soglie per i livelli di grigio, la velocità di esecuzione, il fatto che sia open-source o meno, ecc. I risultati ottenuti tramite l’utilizzo di slice filtrate riguardanti una Cera Anatomica e un Feticcio Africano, sono stati molto soddisfacenti, in quanto hanno permesso la realizzazione di modelli virtuali 3D di entrambi i reperti nel formato richiesto.
Resumo:
Nel presente lavoro viene descritto come è stata ottimizzata, a livello software e hardware, la procedura di controllo della pressione in uno strumento manometrico utilizzato per la misura della quantità di idrogeno assorbita e desorbita da parte di metalli. Dopo una breve introduzione sulle caratteristiche dell'idrogeno che lo rendono così appetibile dal punto di vista energetico, viene esposta la teoria alla base del processo di formazione di idruri metallici. Vengono dunque descritte le due principali tecniche di caratterizzazione di questi sistemi, ovvero le cinetiche e le isoterme pressione-composizione (PCI), e il metodo di misura adottato, ovvero quello volumetrico. Successivamente si passa alla descrizione delle componenti hardware del sistema, per poi soffermarsi sull'analisi dettagliata dell'algoritmo del software implementato, spiegando i problemi affrontati e le soluzioni adottate, riportando anche alcune formule utili ricorrenti. Infine, vengono esposti i risultati ottenuti da misure di cinetiche e PCI per il sistema MgH2 (idruro di magnesio).
Resumo:
Il lavoro svolto per questa tesi è stato effettuato presso il reparto di Fisica Medica dell’Ospedale Bellaria di Bologna, e ha lo scopo di mettere in evidenza l’efficacia dell’utilizzo di pellicole Gafchromic EBT3 nei controlli di qualità effettuati sull’acceleratore lineare LINAC SynergyS per radioterapia a fasci esterni. L’utilizzo continuo e prolungato dell’acceleratore durante i trattamenti radianti può causare nel tempo una perdita della calibrazione iniziale dei suoi componenti meccanici e dosimetrici: per questo è necessario controllarne periodicamente lo stato di funzionamento. Lo scopo dei controlli di qualità è quindi quello di verificare che tale fenomeno non sia avvenuto, per garantire precisione e sicurezza durante l’irradiazione del paziente (essenziale per i trattamenti ad alta precisione come l’IMRT e il VMAT), richiedendo che il fascio erogato colpisca il tessuto malato e riducendo al minimo l’errore per evitare il danneggiamento dei tessuti sani circostanti. I test effettuati sull’acceleratore lineare rientrano nel programma di assicurazione di qualità elaborato ed implementato a cura dei reparti di Fisica Medica e Radioterapia dell' Ospedale Bellaria di Bologna. Tale programma di assicurazione di qualità, è attuato per garantire che i risultati dei test rientrino nelle tolleranze meccaniche e dosimetriche previste dal protocollo dei controlli di qualità per le prove di stato e periodiche sull’acceleratore lineare in vigore all' AUSL di Bologna. In particolare in questo lavoro di tesi sono state effettuate prove dosimetriche, quali la verifica dell’omogeneità e della simmetria del fascio radiante, e prove meccaniche quali la verifica della corrispondenza tra isocentro meccanico ed isocentro radiante. Per queste verifiche sperimentali sono state utilizzate le pellicole radiocromiche Gafchromic EBT3; si tratta di dosimetri bidimensionali particolarmente adatti alla verifica dei trattamenti ad intensità modulata (IMRT, VMAT) che consentono un’accurata stima della distribuzione e dei gradienti di dose assorbita. L'utilizzo delle pellicole Gafchromic EBT3 insieme al software FilmQA Pro si è rivelato uno strumento dosimetrico preciso, accurato e pratico per effettuare i controlli di qualità di base su un acceleratore lineare per radioterapia.