246 resultados para Perch.
Resumo:
Vista la crescente necessità di svolgere progetti d'innovazione guidati dalle nuove tecnologie, la presente ricerca risponde all'esigenza di trovare una metodologia efficace per poterli affrontare proficuamente. In un primo momento, l'elaborato propone una metodologia che permette di elaborare una classificazione dei progetti d'innovazione technology-driven in classi ed un pacchetto di tools funzionali al riconoscimento dell'appartenenza alle stesse. In un secondo momento, giunti a comprensione del fatto che ad ognuna delle classi corrisponde uno specifico fine raggiungibile con una specifica metodologia, lo studio descrive la metodologia seguita per raggiungere una efficace e ripetibile elaborazione di principi progettuali, buone pratiche e strumenti che permettano ad una Organizzazione di appropriarsi del valore di una tecnologia General Purpose (GPT) attraverso l'ideazione di soluzioni innovativa. La progettazione è figlia di un approccio di Design Thinking (DT), sia poichè esso è stato usato nello svolgimento stesso della ricerca, sia perch la metodologia DT è alla base della modellazione del processo proposto per la classe.
Resumo:
Nel nuovo secolo l’uomo sta cercando di affrontare le problematiche del cambiamento climatico, che purtroppo sta già provocando fenomeni di frequenza ed intensità mai visti. Fra i diversi metodi per provare a mitigare le emissioni di gas serra vi è quello di sfruttare il settore delle Informations and Communications Technologies (ICT). Complessivamente si stima che le ICT consumino l’8-10% di elettricità in Europa e che siano responsabili del 4% delle emissioni di carbonio del continente. Questo lavoro analizza la letteratura scientifica che si è occupata degli studi relativi ai consumi ed alle emissioni legate alle ICT. L’analisi dell’impatto ambientale viene svolta tramite il metodo Life Cycle Assessment (LCA). Nella prima parte di questa tesi si analizzano le impronte di carbonio di diversi prodotti o servizi degni di nota fino ad arrivare in generale a tutto il settore delle ICT. Nella seconda, si valutano gli impatti ambientali di sistemi implementati con le ICT comparati con altri considerati tradizionali. In questo studio, vengono analizzati i benefici e le criticità del metodo di valutazione LCA usato per studiare le ICT. Gli studi con questa tecnica sono basati sempre e solo su un modello matematico, per cui dipendono dalle ipotesi dello studio e sono associati ad una sostanziale incertezza che va considerata nell’analisi finale. Per questo motivo, applicando questo metodo al singolo prodotto, i risultati possono essere utili per fornire una base di dati per futuri studi, considerando, tuttavia, che non si può definire in maniera rigida l’impatto per ogni prodotto. Piuttosto, l’LCA è risultata più efficace per fare una comparazione tra scenari ICT e non ICT per valutare come si possa usare la tecnologia per mitigare l’impatto ambientale. Le ICT sono il presente ed il futuro della società ed è proprio per questo che è necessario monitorarle e svilupparle consapevolmente, perch per quanto l’impatto ambientale di esse possa sembrare basso, non è mai nullo.
Resumo:
Il quark-gluon plasma (QGP) è uno stato della materia previsto dalla cromodinamica quantistica. L’esperimento ALICE a LHC ha tra i suoi obbiettivi principali lo studio della materia fortemente interagente e le proprietà del QGP attraverso collisioni di ioni pesanti ultra-relativistici. Per un’esaustiva comprensione di tali proprietà, le stesse misure effettuate su sistemi collidenti più piccoli (collisioni protone-protone e protone-ione) sono necessarie come riferimento. Le recenti analisi dei dati raccolti ad ALICE hanno mostrato che la nostra comprensione dei meccanismi di adronizzazione di quark pesanti non è completa, perch i dati ottenuti in collisioni pp e p-Pb non sono riproducibili utilizzando modelli basati sui risultati ottenuti con collisioni e+e− ed ep. Per questo motivo, nuovi modelli teorici e fenomenologici, in grado di riprodurre le misure sperimentali, sono stati proposti. Gli errori associati a queste nuove misure sperimentali al momento non permettono di verificare in maniera chiara la veridicità dei diversi modelli proposti. Nei prossimi anni sarà quindi fondamentale aumentare la precisione di tali misure sperimentali; d’altra parte, stimare il numero delle diverse specie di particelle prodotte in una collisione può essere estremamente complicato. In questa tesi, il numero di barioni Lc prodotti in un campione di dati è stato ottenuto utilizzando delle tecniche di machine learning, in grado di apprendere pattern e imparare a distinguere candidate di segnale da quelle di fondo. Si sono inoltre confrontate tre diverse implementazioni di un algoritmo di Boosted Decision Trees (BDT) e si è utilizzata quella più performante per ricostruire il barione Lc in collisioni pp raccolte dall’esperimento ALICE.
Resumo:
L’importanza delle api per la vita sulla Terra ed il rischio alle quali sono sottoposte per via dell’azione dell’uomo sono ormai un dato di fatto. La concezione antropocentrica della natura e l’allevamento al solo fine produttivo di questi piccoli insetti, ha da sempre danneggiato il loro habitat e interferito con i loro cicli biologici. L’apicoltura, nata come un rapporto mutualistico in cui l’uomo offriva un rifugio alle api e loro in cambio provvedevano al suo nutrimento, si è trasformato in una dannosa dipendenza ed in un assoggettamento di questi insetti ai ritmi artificiali e tutt’altro che naturali della produzione rapida e seriale volta all’ottenimento di un profitto. Un’evidente prova di questa condizione, sono i rifugi per le api, le arnie. Ci siamo mai chiesti perch le arnie hanno questa forma? È quella che preferiscono le api, o quella che rende più pratici e veloci processi di costruzione, gestione e produzione? In natura le api colonizzano cavità quali tronchi cavi di alberi, forme lontane, per non dire diametralmente opposte a quelle in cui le vediamo vivere negli allevamenti. In questa ottica, il design e le nuove tecnologie, poste al servizio della Natura, conducono ad un punto di incontro tra le esigenze umane e quelle degli altri esseri viventi, delle api in questo caso. I concetti di Additive Manufacturing e Design Computazionale, permettono processi di produzione simili a quelli evolutivi naturali e trovano per questa motivazione un’applicazione ideale per progetti che si pongono come fine quello di discostarsi da una visione troppo artificiale, per riavvicinarsi alla perfezione e all’armonia delle leggi della Natura.
Resumo:
Lo scopo del presente elaborato è ottenere dati grezzi dai maggiori offerwalls affinché si renda possibile elaborarli ed analizzarli per metterli a disposizione delle figure che si occupano di account management di un potenziale Ad Network quale è MyAppFree. Il primo Ad Network competitor a venire integrato nel presente tool di Business Intelligence è OfferToro, seguito da AdGem, il quale è attualmente in fase di integrazione. Prima di presentare i risultati del tool, a cui è stato dedicato l’ultimo capitolo dell’elaborato, sono stati approfonditi ed analizzati ampiamente i concetti fondamentali per la comprensione del progetto insieme agli strumenti utilizzati per la costituzione dell’architettura software. Successivamente, viene presentata l'architettura dei singoli microservizi oltre a quella sistemistica generale, la quale tratta come le parti che compongono iBiT, interagiscono tra loro. Infine, l’ultima parte della trattazione è dedicata al funzionamento del Front End Side per la figura account manager, che rappresenta l’utente finale del progetto. Unita alle analisi dei risultati ottenuti tramite una fase di benchmark testing, metrica che misura un insieme ripetibile di risultati quantificabili che serve come punto di riferimento perch prodotti e servizi possano essere confrontati. Lo scopo dei risultati dei test di benchmark è quello di confrontare le versioni presenti e future del software tramite i rispettivi benchmark.
Resumo:
I cammelli sono tipicamente allevati in paesi con vaste aree desertiche e possono essere impiegati per diversi scopi, tra i quali la produzione di latte, carne, lana, utilizzati nel trasporto, nella corsa, nel turismo, in lavori agricoli o nel mercato della cosmesi. Per quanto riguarda la produzione di latte di cammello, i paesi africani rappresentano circa il 90% dell'intera produzione mondiale, seguiti dai paesi Asiatici. Il latte di cammello (LC), in termini di valori nutritivi, è superiore al latte bovino e piuttosto vicino al latte umano, esso contiene, infatti, alte concentrazioni di composti bioattivi essenziali per la salute umana. Tuttavia, i prodotti alimentari ottenuti dal LC sono ancora molto limitati rispetto a quelli di latte bovino, nonostante essi apportino numerosi benefici sia nutrizionali che per la salute. Le differenze nella composizione, rispetto al latte vaccino, rendono i processi di produzione dei prodotti a base di latte bovino inadatti alla produzione di derivati a base di latte di cammello. Pertanto, una comprensione completa della composizione, dei composti bioattivi e della stabilità al calore è essenziale per preservarne il valore nutritivo intrinseco, ottenendo nel contempo le caratteristiche desiderabili nei prodotti finali. L'attuale utilizzo di LC è molto al di sotto del suo potenziale, questo perch la produzione di prodotti alimentari è molto impegnativa e presenta molti elementi critici. Questa relazione, si concentrerà sulla descrizione della possibile produzione di prodotti alimentari derivati da LC, compreso latte pastorizzato/sterilizzato, agente schiumogeno, polvere, gelato, formaggio, burro e yogurt. Considerando le difficoltà e le conoscenze necessarie per la produzione di prodotti di LC, verranno analizzate le sue proprietà intrinseche: la composizione, il suo valore nutritivo, le funzionalità e la stabilità durante il trattamento termico.
Resumo:
La mia tesi si occupa delle politiche culturali, di salvataggio delle lingue celtiche gaeliche scozzesi e irlandesi. In particolare, ho analizzato due canali dei rispettivi paesi: BBCalba (Scozia), e TG4 (Irlanda), prendendo in esame le differenze dei contesti politici, economici e culturali che hanno influenzato le due reti televisive. Lo scopo della mia tesi è dimostrare che TG4 sia riuscito a svolgere meglio il suo compito, essendo un canale televisivo pubblico di un paese indipendente e impegnato nella salvaguardia della sua lingua nativa; al contrario, BBCalba ha trovato molte più difficoltà sul suo cammino, perch nel contesto televisivo del Regno Unito, è soltanto un canale minore regionale, il cui scopo è osteggiato da una parte della politica britannica, che lo vede come un focolaio indipendentista.
Resumo:
Negli ultimi anni, a causa della crescente tendenza verso i Big Data, l’apprendimento automatico è diventato un approccio di previsione fondamentale perch può prevedere i prezzi delle case in modo accurato in base agli attributi delle abitazioni. In questo elaborato, verranno messe in pratica alcune tecniche di machine learning con l’obiettivo di effettuare previsioni sui prezzi delle abitazioni. Ad esempio, si può pensare all’acquisto di una nuova casa, saranno tanti i fattori di cui si dovrà preoccuparsi, la posizione, i metri quadrati, l’inquinamento dell’aria, il numero di stanze, il numero dei bagni e così via. Tutti questi fattori possono influire in modo più o meno pesante sul prezzo di quell’abitazione. E’ proprio in casi come questi che può essere applicata l’intelligenza artificiale, nello specifico il machine learning, per riuscire a trovare un modello che approssimi nel miglior modo un prezzo, data una serie di caratteristiche. In questa tesi verrà dimostrato come è possibile utilizzare l’apprendimento automatico per effettuare delle stime il più preciso possibile dei prezzi delle case. La tesi è divisa in 5 capitoli, nel primo capitolo verranno introdotti i concetti di base su cui si basa l’elaborato e alcune spiegazioni dei singoli modelli. Nel secondo capitolo, invece, viene trattato l’ambiente di lavoro utilizzato, il linguaggio e le relative librerie utilizzate. Il terzo capitolo contiene un’analisi esplorativa sul dataset utilizzato e vengono effettuate delle operazioni per preparare i dati agli algoritmi che verranno applicati in seguito. Nel capitolo 4 vengono creati i diversi modelli ed effettuate le previsioni sui prezzi mentre nel capitolo 5 vengono analizzati i risultati ottenuti e riportate le conclusioni.
Resumo:
Presentazione di anelli booleani, reticoli booleani e algebre di Boole e spiegazione di come e perch sia possibile che lo studio di ciascuna di esse sia equivalente allo studio delle altre due. Trattazione dell'esempio dell'insieme delle parti di un insieme arbitrario, rappresentazione di esso sia come anello booleano che come reticolo booleano e algebra di Boole e descrizione della sua importanza mediante il teorema di Stone (formulato per ciascuna struttura booleana). Rappresentazione dei reticoli distributivi e degli ideali d'ordine di un insieme parzialmente ordinato, per giungere al teorema di Birkhoff.
Resumo:
Nell’ambito della Stereo Vision, settore della Computer Vision, partendo da coppie di immagini RGB, si cerca di ricostruire la profondità della scena. La maggior parte degli algoritmi utilizzati per questo compito ipotizzano che tutte le superfici presenti nella scena siano lambertiane. Quando sono presenti superfici non lambertiane (riflettenti o trasparenti), gli algoritmi stereo esistenti sbagliano la predizione della profondità. Per risolvere questo problema, durante l’esperienza di tirocinio, si è realizzato un dataset contenente oggetti trasparenti e riflettenti che sono la base per l’allenamento della rete. Agli oggetti presenti nelle scene sono associate annotazioni 3D usate per allenare la rete. Invece, nel seguente lavoro di tesi, utilizzando l’algoritmo RAFT-Stereo [1], rete allo stato dell’arte per la stereo vision, si analizza come la rete modifica le sue prestazioni (predizione della disparità) se al suo interno viene inserito un modulo per la segmentazione semantica degli oggetti. Si introduce questo layer aggiuntivo perch, trovare la corrispondenza tra due punti appartenenti a superfici lambertiane, risulta essere molto complesso per una normale rete. Si vuole utilizzare l’informazione semantica per riconoscere questi tipi di superfici e così migliorarne la disparità. È stata scelta questa architettura neurale in quanto, durante l’esperienza di tirocinio riguardante la creazione del dataset Booster [2], è risultata la migliore su questo dataset. L’obiettivo ultimo di questo lavoro è vedere se il riconoscimento di superfici non lambertiane, da parte del modulo semantico, influenza la predizione della disparità migliorandola. Nell’ambito della stereo vision, gli elementi riflettenti e trasparenti risultano estremamente complessi da analizzare, ma restano tuttora oggetto di studio dati gli svariati settori di applicazione come la guida autonoma e la robotica.
Resumo:
Il fenomeno noto come Internet of Things costituisce oggi il motore principale dell'espansione della rete Internet globale, essendo artefice del collegamento di miliardi di nuovi dispositivi. A causa delle limitate capacità energetiche e di elaborazione di questi dispositivi è necessario riprogettare molti dei protocolli Internet standard. Un esempio lampante è costituito dalla definizione del Constrained Application Protocol (CoAP), protocollo di comunicazione client-server pensato per sostituire HTTP in reti IoT. Per consentire la compatibilità tra reti IoT e rete Internet sono state definite delle linee guida per la mappatura di messaggi CoAP in messaggi HTTP e viceversa, consentendo così l'implementazione di proxies in grado di connettere una rete IoT ad Internet. Tuttavia, questa mappatura è circoscritta ai soli campi e messaggi che permettono di implementare un'architettura REST, rendendo dunque impossibile l'uso di protocolli di livello applicazione basati su HTTP.La soluzione proposta consiste nella definizione di un protocollo di compressione adattiva dei messaggi HTTP, in modo che soluzioni valide fuori dagli scenari IoT, come ad esempio scambio di messaggi generici, possano essere implementate anche in reti IoT. I risultati ottenuti mostrano inoltre che nello scenario di riferimento la compressione adattiva di messaggi HTTP raggiunge prestazioni inferiori rispetto ad altri algoritmi di compressione di intestazioni (in particolare HPACK), ma più che valide perch le uniche applicabili attualmente in scenari IoT.
Resumo:
Le recenti analisi dei dati raccolti ad ALICE dimostrano che la nostra comprensione dei fenomeni di adronizzazione dei sapori pesanti è ancora incompleta, perch le misure effettuate su collisioni pp, p-Pb e Pb-Pb non sono riproducibili da modelli teorici basati su altre tipologie di collisione come e+e−. In particolare, i risultati sembrano indicare che il principio di universalità, che assume che le funzioni di frammentazione di quark e gluoni siano indipendenti dal tipo di sistema interagente, non sia valido. Per questo motivo sono stati sviluppati nuovi modelli teorici e fenomenologici, capaci di riprodurre in modo più o meno accurato i dati sperimentali. Questi modelli differiscono tra di loro soprattutto a bassi valori di impulso trasverso pT . L’analisi dati a basso pT si rivela dunque di fondamentale importanza, in quanto permette di discriminare, tra i vari modelli, quelli che sono realmente in grado di riprodurre i dati sperimentali e quelli che non lo sono. Inoltre può fornire una conferma sperimentale dei fenomeni fisici su cui tale modello si basa. In questa tesi è stato estratto il numero di barioni Λ+c (yield ) prodotto in collisioni pp a √s = 13 TeV , nel range di impulso trasverso 0 < pT (Λ+c ) < 1 GeV/c. É stato fatto uso di una tecnica di machine learning che sfrutta un algoritmo di tipo Boosted Decision Trees (BDT) implementato dal pacchetto TMVA, al fine di identificare ed eliminare una grossa parte del fondo statistico e semplificare notevolmente l’analisi vera e propria. Il grado di attendibilità della misura è stata verificata eseguendo l’estrazione dello yield con due approcci diversi: il primo, modellando il fondo combinatoriale con una funzione analitica; successivamente con la creazione di un template statistico creato ad hoc con la tecnica delle track rotations.
Resumo:
L’obiettivo dell’elaborato è quello di presentare una soluzione di collegamento ed interfacciamento tra il supercondensatore (SC) dell’HESS (sistema ibrido di accumulo dell’energia situato all’interno di un veicolo elettrico) e il DC-link (bus che fornisce la potenza necessaria all’inverter che pilota il motore elettrico) attraverso un convertitore DC-DC ad alta efficienza che utilizzi tecnologie di potenza al nitruro di gallio (GaN). Il convertitore presentato è un convertitore DC-DC bidirezionale in configurazione Half-Bridge, esso dovrà funzionare in modalità Boost, ogni qualvolta il motore richieda energia extra dal SC, in modalità Buck per ricaricare il SC durante la frenata rigenerativa. In seguito ad un’introduzione ai veicoli elettrici, alla loro architettura e al perch il SC è così fondamentale, verrà presentata una breve introduzione ai convertitori di potenza (Capitolo 1). Si passerà poi alla presentazione delle tecnologie GaN mostrando come esse rappresentino il futuro dell’elettronica di potenza grazie ai loro numerosi vantaggi (Capitolo 2). Nel capitolo 3 si entrerà nel vivo della progettazione, è qui che sarà progettata ed implementata la soluzione proposta. Verrà effettuata una prima simulazione del circuito, tenendo conto degli effetti parassiti dei soli componenti, attraverso l’ausilio del software LTSpice. Il Capitolo 4 prevede una breve introduzione alle tecniche di layout, utili nella costruzione del circuito stampato presentata all’interno del medesimo capitolo. Il PCB sarà modellato mediante un secondo software denominato KiCAD. Infine, nel Capitolo 5, si procederà con la simulazione elettromagnetica del circuito stampato, essa permetterà di individuare gli effetti parassiti dovuti alle non idealità del layout e di mostrare l’effettiva differenza di efficienza tra un caso semi-ideale e un caso semi-reale.
Resumo:
I generatori compatti di neutroni possono rappresentare un grande progresso nell'ambito della Medicina Nucleare. Sono una valida alternativa rispetto ai metodi tradizionali per la produzione dei radioisotopi necessari per la sintesi dei radiofarmaci, e permettono di esplorare e sviluppare nuove metodologie radioterapeutiche innovative, complementari e potenzialmente più efficaci rispetto a quelle già esistenti. Enea sta portando avanti due progetti in questo ambito. Il primo, SORGENTINA-RF, è volto allo sviluppo di una macchina in grado di produrre un fascio di neutroni a 14MeV, con la quale irradiare un target di molibdeno metallico, in modo da ottenere tecnezio-99 metastabile (99mTc), il radioisotopo più usato al mondo nelle procedure di imaging biomedico. Il secondo progetto, LINC-ER, ha lo scopo di progettare le infrastrutture necessarie ad accogliere un generatore compatto di neutroni, il cui scopo sarà quello di eliminare le residue cellule tumorali dopo un intervento chirurgico, a ferita aperta, in modo simile alle attuali tecniche di radioterapia intraoperatoria, che però sfruttano elettroni o raggi X. Questo lavoro di tesi trova posto in questi progetti perch ha contributo a portare avanti le ricerche in due aspetti specifici. Nel caso di SORGENTINA-RF, sono stati studiati tutti gli aspetti radiochimici per ottenere dal molibdeno metallico la soluzione liquida di molibdato sodico da cui si estrae il 99mTc. In questo caso si è deciso di puntare su processo “green” e innovativo basato sull’uso di perossido di idrogeno. Durante la tesi si sono studiati i più importanti fattori che governano questo processo e si è definito un meccanismo chimico che lo spiega. Nel caso di LINC-ER, invece, il lavoro sperimentale è stato quello di studiare metodi e rotte sintetiche nuove per ottenere nanoparticelle di composti di boro e bario, dispersi in hydrogels in grado di amplificare gli effetti del fascio neutronico sui tessuti cancerogeni e ridurli su quelli sani.
Resumo:
L’obiettivo di questo elaborato è quello di implementare un Modem digitale che è basato su una modulazione Orthogonal Frequency Division Multiplexing (OFDM) ed è formato da due tipi di dispositivi radio differenti, i quali sono molto utili, poiché si possono utilizzare in diversi scopi senza doverne modificare l’hardware ma solo cambiando la parte software perch sono programmabili. I due dispositivi sono i seguenti: • Analog Device Adalm-Pluto: dispositivo in grado sia di trasmettere che di ricevere. Lo utilizzeremo solamente per trasmettere il segnale. • Noeelec NE-SDR: dispositivo in grado solo di ricevere. Lo utilizzeremo quindi solamente per ricevere il segnale. Il tipo di modulazione da noi utilizzata per trasmettere il segnale è come detto in precedenza la modulazione OFDM. Essa è molto efficiente nell’occupazione della banda ed applica la trasmissione di un segnale su più portanti affiancate nel dominio delle frequenze. Questo significa che ogni portante che compone il segnale completo si trova ad una frequenza multipla della principale f0. Inoltre il vantaggio di questa modulazione sta nel fatto di sapere che l’informazione è contenuta nel segnale passa-basso inviluppo complesso rappresentativo i(t) e per questo motivo vedremo, nel corso dell’elaborato, come lo schema di trasmissione e ricezione sia molto semplificato.