898 resultados para Sistemi di rigenerazione pompe di calore alta efficienza
Resumo:
L’idea di sviluppare il presente lavoro è scaturita da alcune considerazioni sulla metodologia di preparazione dell’interprete. In particolare è nata dalla consapevolezza che la sfida principale di questa professione risiede nel fatto di dover gestire, durante l’intera carriera, un confronto impari con una quantità potenzialmente infinita di concetti e termini nuovi da assimilare. Ciò è dovuto in primis all’intrinseca vastità della lingua, principale strumento di comunicazione, e implica che ogni volta l’interprete si trovi a operare in uno degli innumerevoli contesti estremamente eterogenei in cui può essere richiesto il suo servizio, caratterizzati ciascuno da una propria cultura e da un suo lessico settoriale sul quale è necessario prepararsi, spesso disponendo solo di pochi giorni per farlo. Una delle strategie possibili per fare fronte in modo efficace al costante flusso di informazioni da assimilare è la specializzazione, ovvero lo studio approfondito e a lungo termine di uno o più settori tematici, con l’acquisizione graduale della relativa terminologia settoriale nelle varie lingue di lavoro. Il presente lavoro propone l’utilizzo di sistemi di rappresentazione grafica della conoscenza come strumenti a supporto di questo processo di specializzazione, con l’aiuto dei quali mettere a fuoco e fissare sia la componente concettuale, sia quella terminologica relativa ad un dominio specifico. A mo’ di esempio è stato scelto il settore moda, poiché ritenuto particolarmente adeguato agli scopi proposti. Il software utilizzato è la versione freeware di MindMaple. L’elaborato è suddiviso in due parti: la prima ne descrive l’impianto teorico e comprende la descrizione dei processi di categorizzazione della realtà da un punto di vista psicologico-cognitivo (cap.1), integrata da una panoramica delle diverse tipologie di sistematizzazione della conoscenza, dei loro ambiti di applicazione (cap.2), e soffermandosi infine sull’approfondimento dei vari tipi di schemi: mentali, concettuali, ecc.(cap.3) Nella seconda parte del lavoro viene dapprima fornita una descrizione generale del dominio al quale appartiene l’argomento dello schema, ossia il settore moda, esponendo le ragioni di tale scelta e soffermandosi su alcune particolarità del lessico settoriale (cap. 4). L’ultimo capitolo è infine dedicato alla presentazione dell’elaborato grafico con un’ introduzione sulle funzionalità principali del software utilizzato, la descrizione dello schema nei vari suoi aspetti, come la struttura e le fasi di sviluppo, nonché alcuni esempi concreti relativi a problematiche terminologiche incontrate sia in fase di sistematizzazione del lessico che durante la ricerca di equivalenti interlinguistici.
Resumo:
Lo scopo di questo lavoro è la caratterizzazione fisica del flat panel PaxScan4030CB Varian, rivelatore di raggi X impiegato in un ampio spettro di applicazioni cliniche, dalla radiografia generale alla radiologia interventistica. Nell’ambito clinico, al fine di una diagnosi accurata, è necessario avere una buona qualità dell’immagine radiologica mantenendo il più basso livello di dose rilasciata al paziente. Elemento fondamentale per ottenere questo risultato è la scelta del rivelatore di radiazione X, che deve garantire prestazioni fisiche (contrasto, risoluzione spaziale e rumore) adeguati alla specifica procedura. Le metriche oggettive che misurano queste caratteristiche sono SNR (Signal-to-Noise Ratio), MTF (Modulation Transfer Function) ed NPS (Noise Power Spectrum), che insieme contribuiscono alla misura della DQE (Detective Quantum Efficiency), il parametro più completo e adatto a stabilire le performance di un sistema di imaging. L’oggettività di queste misure consente anche di mettere a confronto tra loro diversi sistemi di rivelazione. La misura di questi parametri deve essere effettuata seguendo precisi protocolli di fisica medica, che sono stati applicati al rivelatore PaxScan4030CB presente nel laboratorio del Centro di Coordinamento di Fisica Medica, Policlinico S.Orsola. I risultati ottenuti, conformi a quelli dichiarati dal costruttore, sono stati confrontati con successo con alcuni lavori presenti in letteratura e costituiscono la base necessaria per la verifica di procedure di ottimizzazione dell’immagine radiologica attraverso interventi sul processo di emissione dei raggi X e sul trattamento informatico dell’immagine (Digital Subtraction Angiography).
Resumo:
In questo lavoro di tesi si studieranno le acque superficiali e sotterranee del fiume Marecchia, che sono continuamente monitorate da ARPA allo scopo di mantenere l'ambiente idrologico in buono stato. Una particolare attenzione è stata riposta nell'analisi dell'azoto e dei suoi composti, poiché nella conoide del Marecchia si è sempre osservata una forte presenza di questo tipo di composti, che negli anni hanno causato forti danni all'ambiente. Per raggiungere tale obiettivo, è stato fondamentale ripercorrere gli andamenti dei parametri nel corso degli anni, ricorrendo a dati forniti da ARPA e analizzando direttamente campioni raccolti in campo. Nelle acque analizzate sono state riscontrate varie anomalie, soprattutto nel sito in corrispondenza di via Tonale, che potrebbero essere ricondotte al grave problema dell'intrusione dell'acqua di mare in falda, e degli apporti di tali elementi durante le mareggiate; nel sito campionato nei pressi di Vergiano sono state riscontrate concentrazioni di solfati, cloruri e nitrati in aumento, che potrebbero essere causati da scarichi diretti in falda o nelle acque superficiali, oppure dilavamento dei campi da parte dell'acqua piovana. Anche le concentrazioni di nitriti, determinate nei punti di campionamento nel Torrente Ausa, superano notevolmente la concentrazione limite di 0.5 mg/l e tale effetto potrebbe essere causato da un uso indiscriminato di insetticidi, diserbanti e pesticidi composti da elementi ricchi di azoto, oppure dagli scarichi diretti di colorifici e industrie immessi direttamente nel torrente da parte dello stato di San Marino. Quanto evidenziato con questo studio potrebbe essere un incentivo per gli enti regionali, provinciali e comunali per migliorare il monitoraggio di alcune zone del fiume Marecchia e per ottimizzare i sistemi di gestione del territorio.
Resumo:
Obiettivo della tesi è riconoscere i fattori di successo e i principali limiti legati all’implementazione dei progetti di recupero degli oli domestici sul territorio italiano. Il problema nasce dall’ esigenza di gestire in modo efficiente la raccolta differenziata di questo rifiuto che, se gettato nello scarico di casa o nel lavandino, provoca impatti ambientali rilevanti rendendo particolarmente difficoltoso e dispendioso il trattamento delle acque reflue e causa gravi danni agli ecosistemi naturali. La questione è da tempo inquadrata e disciplinata dalle direttive comunitarie in materia di rifiuti e dalla strategia “Europa2020” che ha come obiettivo principale una crescita intelligente, sostenibile ed inclusiva. A livello nazionale, invece, il Testo Unico Ambientale assolve alla funzione principale di riordino e coordinamento della disciplina, dando attuazione ai principi comunitari in materia e conformando l’ordinamento nazionale agli obiettivi e alle priorità individuate dal legislatore europeo. Gli oli esausti domestici sono un rifiuto scomodo e complesso da gestire ma la valorizzazione energetica può essere una valida alternativa ai sistemi di smaltimento classici. Infatti, attraverso un semplice processo chimico l’olio da cucina usato può essere trasformato in biodiesel. Questo particolare biocombustibile rispetta tutti i criteri di sostenibilità imposti dalla Comunità Europea e riduce, inoltre, l’impatto della produzione di biocarburanti sull’agricoltura.
Resumo:
Scopo di questa tesi è la trattazione del Principio dei lavori virtuali, il quale si inserisce nel contesto della meccanica classica dei sistemi di punti materiali. Tale principio viene utilizzato per affrontare problemi di statica quali l'equilibrio di un sistema meccanico, ma risulta centrale anche nel contesto più generale della dinamica. Per quanto riguarda i problemi di statica, il principio dei lavori virtuali è un metodo alternativo alle equazioni cardinali, che rappresentano una condizione necessaria e sufficiente per l'equilibrio dei soli corpi rigidi, quindi si occupano di un contesto più limitato.
Resumo:
La presente tesi analizza le principali caratteristiche di due tipi di traduzione: la traduzione audiovisiva, e in particolare il sottotitolaggio, e la traduzione automatica (TA). Obiettivo della nostra ricerca è stabilire quali risultati è possibile aspettarsi dall’impiego di sistemi di traduzione automatica appositamente sviluppati, nella creazione di sottotitoli di qualità professionale. Tale metodo avrebbe il potenziale vantaggio di velocizzare il processo traduttivo, riducendo in parte la pressione cui i sottotitolatori sono sottoposti, dovendo realizzare molte traduzioni in tempi troppo brevi, spesso a scapito della qualità finale del prodotto. Nel presente lavoro, il Capitolo 1 delinea le tappe principali della nascita e dello sviluppo della traduzione automatica, fino ad arrivare ai sistemi di TA più moderni. Nel Capitolo 2 vengono presentati i tipi principali di sistemi di traduzione automatica, con riferimento alle loro potenzialità e alle loro debolezze, soprattutto per quanto riguarda il loro impiego nel settore multimediale. Il Capitolo 3 riguarda la storia del sottotitolaggio, e le condizioni che hanno portato allo sviluppo e alla diffusione delle diverse modalità di traduzione audiovisiva, di cui il sottotitolaggio è una variante. Nel Capitolo 4 descriveremo le fasi principali di questo processo traduttivo, con particolare enfasi sull’importanza del contesto di arrivo e delle esigenze e aspettative dei futuri fruitori del testo finale. I Capitoli 5 e 6 presentano il lavoro di ricerca “sul campo”, svolto per raccogliere il parere di sottotitolatori professionisti e fansubber, attivi in Italia e all’estero, riguardo la possibilità di usare la TA nel loro lavoro. Infine, il capitolo conclusivo fornisce un commento sui risultati ottenuti, e sulle prospettive future riguardo la possibile apertura da parte del sottotitolaggio verso questa nuova tecnologia.
Resumo:
Il crescente utilizzo di sistemi di analisi high-throughput per lo studio dello stato fisiologico e metabolico del corpo, ha evidenziato che una corretta alimentazione e una buona forma fisica siano fattori chiave per la salute. L'aumento dell'età media della popolazione evidenzia l'importanza delle strategie di contrasto delle patologie legate all'invecchiamento. Una dieta sana è il primo mezzo di prevenzione per molte patologie, pertanto capire come il cibo influisce sul corpo umano è di fondamentale importanza. In questo lavoro di tesi abbiamo affrontato la caratterizzazione dei sistemi di imaging radiografico Dual-energy X-ray Absorptiometry (DXA). Dopo aver stabilito una metodologia adatta per l'elaborazione di dati DXA su un gruppo di soggetti sani non obesi, la PCA ha evidenziato alcune proprietà emergenti dall'interpretazione delle componenti principali in termini delle variabili di composizione corporea restituite dalla DXA. Le prime componenti sono associabili ad indici macroscopici di descrizione corporea (come BMI e WHR). Queste componenti sono sorprendentemente stabili al variare dello status dei soggetti in età, sesso e nazionalità. Dati di analisi metabolica, ottenuti tramite Magnetic Resonance Spectroscopy (MRS) su campioni di urina, sono disponibili per circa mille anziani (provenienti da cinque paesi europei) di età compresa tra i 65 ed i 79 anni, non affetti da patologie gravi. I dati di composizione corporea sono altresì presenti per questi soggetti. L'algoritmo di Non-negative Matrix Factorization (NMF) è stato utilizzato per esprimere gli spettri MRS come combinazione di fattori di base interpretabili come singoli metaboliti. I fattori trovati sono stabili, quindi spettri metabolici di soggetti sono composti dallo stesso pattern di metaboliti indipendentemente dalla nazionalità. Attraverso un'analisi a singolo cieco sono stati trovati alti valori di correlazione tra le variabili di composizione corporea e lo stato metabolico dei soggetti. Ciò suggerisce la possibilità di derivare la composizione corporea dei soggetti a partire dal loro stato metabolico.
Resumo:
In questa tesi abbiamo studiato le forme reali di algebre e superalgebre di Lie. Il lavoro si suddivide in tre capitoli diversi, il primo è di introduzione alle algebre di Lie e serve per dare le prime basi di questa teoria e le notazioni. Nel secondo capitolo abbiamo introdotto le algebre compatte e le forme reali. Abbiamo visto come sono correlate tra di loro tramite strumenti potenti come l'involuzione di Cartan e relativa decomposizione ed i diagrammi di Vogan e abbiamo introdotto un algoritmo chiamato "push the button" utile per verificare se due diagrammi di Vogan sono equivalenti. Il terzo capitolo segue la struttura dei primi due, inizialmente abbiamo introdotto le superalgebre di Lie con relativi sistemi di radici e abbiamo proseguito studiando le relative forme reali, diagrammi di Vogan e abbiamo introdotto anche qua l'algoritmo "push the button".
Resumo:
L’ obiettivo della tesi proposta è volto ad illustrare come la malattia diabetica può essere gestita a livello domiciliare attraverso dispositivi di monitoraggio della glicemia sempre più innovativi. La malattia diabetica è un disturbo metabolico che ha come manifestazione principale un aumento del livello di zucchero nel sangue (glicemia) dovuto ad una ridotta produzione di insulina, l’ormone secreto dal pancreas per utilizzare gli zuccheri e gli altri componenti del cibo e trasformarli in energia. È una delle patologie croniche a più ampia diffusione nel mondo, in particolare nei Paesi industrializzati, e costituisce una delle più rilevanti e costose malattie sociali della nostra epoca, soprattutto per il suo carattere di cronicità, per la tendenza a determinare complicanze nel lungo periodo e per il progressivo spostamento dell’insorgenza verso età giovanili. Le tecnologie applicate alla terapia del diabete hanno consentito negli ultimi vent’anni di raggiungere traguardi molto importanti, soprattutto per quanto riguarda l’ottimizzazione del controllo assiduo dei valori glicemici cercando di mantenerli il più costante possibile e ad un livello simile a quello fisiologico. La comunicazione medico-paziente è stata rivoluzionata dalla telemedicina che, offrendo la possibilità di una comunicazione agevole, permette di ottimizzare l’utilizzo dei dati raccolti attraverso l’automonitoraggio glicemico e di facilitare gli interventi educativi. I glucometri, che misurano la glicemia ‘capillare’, insieme ai microinfusori, sistemi di erogazione dell’insulina sia in maniera continua (fabbisogno basale), che ‘a domanda’ (boli prandiali), hanno sostanzialmente modificato l’approccio e la gestione del diabete da parte del medico, ma soprattutto hanno favorito al paziente diabetico un progressivo superamento delle limitazioni alle normali attività della vita imposte dalla malattia. Con il monitoraggio continuo della glicemia 24 ore su 24 infatti, si ha avuto il vantaggio di avere a disposizione un elevato numero di misurazioni puntiformi nell’arco della giornata attraverso sensori glicemici, che applicati sulla pelle sono in grado di ‘rilevare’ il valore di glucosio a livello interstiziale, per diversi giorni consecutivi e per mezzo di un trasmettitore wireless, inviano le informazioni al ricevitore che visualizza le letture ottenute dal sensore. In anni recenti, il concetto di SAP (Sensor-Augmented Insulin Pump) Therapy, è stato introdotto a seguito di studi che hanno valutato l’efficacia dell’utilizzo della pompa ad infusione continua di insulina (CSII, continuous subcutaneous insulin infusion) associato ai sistemi di monitoraggio in continuo della glicemia (CGM, continuous glucose monitoring) per un significativo miglioramento del controllo glicemico e degli episodi sia di ipoglicemia sia di iperglicemia prolungata. Oggi, grazie ad una nuova funzione è possibile interrompere automaticamente l’erogazione di insulina da parte del microinfusore quando la glicemia, rilevata dal sensore, scende troppo velocemente e raggiunge un limite di allarme. Integrare lettura della glicemia, infusione e sospensione automatica dell’erogazione di insulina in caso di ipoglicemia ha ovviamente aperto la porta al pancreas artificiale.
Resumo:
Scopo di questo lavoro di tesi è la revisione della legislazione in materia di dispositivi medici nel mercato europeo, facendone un confronto con la normativa extra-europea. In particolare si sono studiate ed analizzate anche le regolamentazioni degli Stati Uniti e del Giappone, che insieme a quella dell’Unione Europea, rappresentano attualmente i tre maggiori mercati mondiali di dispositivi medici. L’obiettivo quindi è stato la ricerca, lo studio e l’analisi critica dei vari sistemi legislativi in vigore, la loro evoluzione e le prospettive future. Considerando il punto di vista del fabbricante di dispositivi medici, si sono illustrati percorsi normativi per poter immettere sul mercato un nuovo dispositivo medico nell’Unione Europea, negli Stati Uniti e in Giappone, evidenziando le procedure da seguire, le modalità di commercializzazione nei tre mercati, le certificazioni richieste, facendone un’analisi comparativa di un mercato rispetto agli altri. Sempre nella stessa ottica, si è inoltre effettuata una sintetica analisi del mercato dei dispositivi medici nei paesi emergenti, in quanto sono già, e lo diventeranno sempre più, una risorsa importante per una azienda con una visione internazionale del mercato. In questo elaborato di tesi sono stati ampiamente descritti ed analizzati i diversi sistemi di regolamentazione dei dispositivi medici e si è effettuata una valutazione comparativa tra i diversi sistemi legislativi e normativi che condizionano il mercato dei dispositivi medici. Un fabbricante con una visione internazionale della propria azienda deve conoscere perfettamente le legislazioni vigenti in materia di dispositivi medici. Per l'impresa, la conoscenza e la pratica della norma è indispensabile ma, ancor più, l'informazione e la consapevolezza dell'evoluzione della norma è determinante per la crescita competitiva. Il business mondiale dei dispositivi medici infatti ha subito profondi cambiamenti, con l'introduzione nei diversi paesi di complesse procedure di certificazione e autorizzazione, che sono in continua evoluzione. Tutto questo richiede una dimestichezza con le norme di settore e un continuo aggiornamento tecnico-normativo: sono indispensabili per le imprese competenze adeguate, in grado di affrontare tematiche tecnico-scientifiche e di adempiere a quanto prevedono le norme nazionali ed internazionali. Comprendere le opportunità, conoscere le regole e le barriere per l'ingresso in un determinato mercato, è sempre più importante per le imprese interessate ai processi di internazionalizzazione. Per meglio comprendere un mercato/paese, occorre la conoscenza dei peculiari aspetti regolatori, ma anche la conoscenza della specifica cultura, tradizione, società. In questo quadro, conoscere e praticare le norme non è sufficiente, sapere come evolvono le norme e le regole è per le imprese un fattore determinante per la competitività.
Resumo:
Negli ultimi dieci anni si è rinnovata l’esigenza di sviluppare nuove tecnologie legate alla telemedicina, specie a seguito dello sviluppo dei sistemi di telecomunicazione che consentono ad ogni persona di avere a disposizione sistemi portatili, come gli smartphone, sempre connessi e pronti a comunicare. Lo stesso sviluppo si è avuto all’interno dei sistemi sanitari in cui è diventato fondamentale informatizzare le attività ospedaliere per via del contesto demografico a cui si va incontro: invecchiamento della popolazione e aumento del numero di pazienti affetti da malattie croniche. Tutti questi aspetti portano all’attuazione di un cambiamento strategico. Le Body Area Network, fulcro di questo lavoro di tesi, rappresentano la risposta a questa necessità. Si spiegano l'architettura e le tecnologie abilitanti per la realizzazione di queste reti di sensori, gli standard di comunicazione tramite i quali avviene la trasmissione dei dati e come le reti si interfacciano con i pazienti e le strutture sanitarie. Si conclude con una panoramica sui sensori di una BAN e alcuni esempi in commercio.
Resumo:
Il presente lavoro di tesi è stato stilato dopo aver svolto un tirocinio curriculare presso l’azienda Robopac S.p.A. nello stabilimento di Villa Verucchio (Rn). Sono partito dal lavoro di raccolta e sintesi degli indici di produzione e delle scorte di magazzino fatto nel periodo di tirocinio, focalizzandomi poi sull’aspetto della gestione delle scorte. Da quest’ultima analisi è emerso che la gestione delle merci ha portato ad avere un alto valore economico del magazzino per cui l’obbiettivo di questo lavoro di tesi è stato fornire un modello per la determinazione della scorta ottimale che porti ad una riduzione del valore totale del magazzino. Inizialmente è stato affrontato il tema generale della logistica industriale, in particolare analizzando il sistema logistico attraverso le sue caratteristiche e funzioni e sono state descritte le tipologie di magazzini industriali secondo i diversi sistemi di stoccaggio. Successivamente è stato introdotto l’argomento principale, ossia i problemi e i modelli di gestione delle scorte. E' stata dapprima descritta e classificata la scorta, per poi analizzarne i modelli di gestione come il modello di Wilson, utilizzato per il questo lavoro, con particolare attenzione alla scorta di sicurezza. Infine è stato formulato l’indice di rotazione e l’analis ABC di Lorentz-Pareto. L'ultimo capitolo descrive l’azienda Robopac con attenzione sul magazzino, attraverso la rappresentazione del percorso delle merci all’interno dello stabilimento e della fase di estrazione del materiale, aprendo una finestra sulla gestione degli approvvigionamenti dell’azienda Robopac. Nella seconda parte si arriva ad affrontare l’argomento centrale di tale elaborato, la definizione di un modello per determinare la scorta ottimale a magazino e vengono evidenziati i risultati ottenuti.
Resumo:
La tesi descrive il T1 mapping, un metodo diagnostico non invasivo emergente per l’identificazione e la quantificazione della fibrosi atriale. Nel primo capitolo ci si è soffermati sulle caratteristiche del tessuto fibrotico e sulle cause che generano tale patologia tra cui la fibrillazione atriale. Nel secondo capitolo vengono descritte le tecniche non invasive comunemente più utilizzate per la valutazione della fibrosi tra cui: sistemi di mappaggio elettronanatomico e risonanza magnetica cardiaca con l’uso di mezzo di contrasto. Nel terzo capitolo sono approfondite tutte le sequenze necessarie per la costruzione di mappe di tempi T1 indagando anche sui fattori a cui la tecnica è più sensibile. Infine è stato dedicato ampio spazio a ricerche mediche sulla correlazione tra i tempi T1 delle camere cardiache, i potenziali elettroanatomici delle stesse e la probabilità di sviluppare fibrillazioni atriali recidive in alcuni pazienti sottoposti ad ablazione transcatetere.
Resumo:
In questo progetto di tesi ci si addentrerà nel campo della scansione corporea, e più in generale di qualunque oggetto. In questo ambito le soluzioni proposte sono numerose e questo settore ha vissuto negli ultimi anni un’incredibile crescita, favorita anche dalla nascita delle stampanti 3D. Si può ragionevolmente supporre che tale crescita non sia destinata ad esaurirsi nei prossimi anni; ci sono i presupposti per cui questo settore occupi fette sempre più importanti del mercato. In questa tesi ci si è occupati prevalentemente di tecniche di scansione del corpo umano, in quanto una descrizione geometricamente accurata della superficie corporea riveste una notevole importanza sia nelle applicazioni industriali che nello studio della biomeccanica del movimento. Per quanto riguarda le applicazioni industriali si pensi ad esempio all’utilizzo di scanner 3D in accoppiata alle moderne stampanti 3D per la realizzazione di protesi custom o al comparto sartoriale per il confezionamento di abiti su misura. Nell’ambito della biomeccanica essa può risultare utile sia per quanto riguarda gli aspetti cinematici e dinamici nei campi riabilitativo, ergonomico e sportivo, sia per quanto riguarda la stima delle grandezze antropometriche. Attualmente esistono sistemi di scansione corporea low-cost che si stanno sempre più diffondendo e si può pensare ad un futuro neanche tanto lontano nel quale essi siano presenti in maniera diffusa nelle abitazioni. In tale contesto gli obiettivi di questa tesi sono: 1) Documentare quanto prodotto finora a livello scientifico, brevettuale ed industriale, evidenziando meriti e limiti di ciascuna soluzione. 2) Individuare e valutare la realizzabilità di soluzioni innovative low-cost.
Resumo:
La programmazione aggregata è un paradigma che supporta la programmazione di sistemi di dispositivi, adattativi ed eventualmente a larga scala, nel loro insieme -- come aggregati. L'approccio prevalente in questo contesto è basato sul field calculus, un calcolo formale che consente di definire programmi aggregati attraverso la composizione funzionale di campi computazionali, creando i presupposti per la specifica di pattern di auto-organizzazione robusti. La programmazione aggregata è attualmente supportata, in modo più o meno parziale e principalmente per la simulazione, da DSL dedicati (cf., Protelis), ma non esistono framework per linguaggi mainstream finalizzati allo sviluppo di applicazioni. Eppure, un simile supporto sarebbe auspicabile per ridurre tempi e sforzi d'adozione e per semplificare l'accesso al paradigma nella costruzione di sistemi reali, nonché per favorire la ricerca stessa nel campo. Il presente lavoro consiste nello sviluppo, a partire da un prototipo della semantica operazionale del field calculus, di un framework per la programmazione aggregata in Scala. La scelta di Scala come linguaggio host nasce da motivi tecnici e pratici. Scala è un linguaggio moderno, interoperabile con Java, che ben integra i paradigmi ad oggetti e funzionale, ha un sistema di tipi espressivo, e fornisce funzionalità avanzate per lo sviluppo di librerie e DSL. Inoltre, la possibilità di appoggiarsi, su Scala, ad un framework ad attori solido come Akka, costituisce un altro fattore trainante, data la necessità di colmare l'abstraction gap inerente allo sviluppo di un middleware distribuito. Nell'elaborato di tesi si presenta un framework che raggiunge il triplice obiettivo: la costruzione di una libreria Scala che realizza la semantica del field calculus in modo corretto e completo, la realizzazione di una piattaforma distribuita Akka-based su cui sviluppare applicazioni, e l'esposizione di un'API generale e flessibile in grado di supportare diversi scenari.