992 resultados para Modello ad Attori, Programmazione Concorrente, Scambio Asincrono di Messaggi, AXUM, .NET Framework
Resumo:
Questa tesi verte sulla traduzione di ricette scritte a mano o tramandate oralmente da diverse generazioni di alcune famiglie russe. Anche tali ricette, e non solo quelle riportate nei libri di cucina stampati, contengono preziose informazioni sulle abitudini alimentari dei russi, nonché sulla loro vita quotidiana e sulla storia del loro paese. Ho intervistato alcuni membri di queste famiglie e inviato un questionario online ad altri. Ho fotografato o chiesto di mandarmi fotografie delle ricette trascritte a mano da loro stessi o da alcuni familiari su libri o fogli conservati in casa. Alcune di queste ricette sono state scritte decenni fa, altre sono rielaborazioni più recenti di ricette tradizionali della famiglia o invenzioni delle ultime generazioni. Nella prima parte della mia tesi ho analizzato le tappe fondamentali della letteratura culinaria russa e i processi con cui le ricette tradizionali vengono tramandate alle generazioni successive, sia sotto forma di libri di cucina scritti da chef e autorità nel campo, sia in ambito familiare, trascritte a mano su fogli e quaderni oppure insegnate direttamente, in forma orale. In seguito sono riportate le traduzioni delle ricette: dal boršč della mamma di Kristina, una mia compagna di università alla Moscow State Univesity, alle antiche ricette della bisnonna della mia professoressa Maria Arapova, ancora scritte con l’ortografia prerivoluzionaria, alle specialità di Marzhan, 15 anni, ma già abilissima ai fornelli. Le ricette sono precedute da una breve introduzione sulla storia del piatto oppure da memorie e aneddoti familiari legati ad esso che mi sono stati raccontati durante le interviste o nelle risposte al questionario. Segue un’analisi dei principali problemi affrontati durante la traduzione. In primo luogo, quelli legati al genere testuale: la ricetta è un testo prescrittivo, il che rende l’efficacia della traduzione un aspetto cruciale, ed è anche una tipologia testuale ricca di elementi culturally specific, ad esempio ingredienti e unità di misura. In secondo luogo, vengono analizzate le difficoltà legate al tipo particolare di ricette tradotte: testi ad uso domestico e familiare, ricchi di omissioni e spesso scritti in una grafia difficile da decifrare.
Resumo:
Le alte pressioni di omogeneizzazione sono considerate una tecnologia non termica basata sull’applicazione di pressioni comprese tra 60 e 400 MPa ad alimenti fluidi o fluidificabili, con un tempo di trattamento di pochi millisecondi. Questa tecnologia permette di ottenere una serie di effetti sull’alimento che variano in rapporto all’entità del trattamento applicato e alla matrice fluida considerata. Pertanto, le alte pressioni di omogeneizzazione rappresentano una delle tecnologie maggiormente studiate in ragione delle loro buone opportunità applicative a livello industriale. Tale tecnologia viene comunemente applicata per modificare le proprietà funzionali di alcune macromolecole caratteristiche degli alimenti ed ha permesso l’ottenimento di prodotti di origine lattiero-casearia ed anche succhi di frutta caratterizzati da migliore texture, gusto, flavour e aumentata shelf-life. L’omogeneizzazione ad alta pressione, considerata come trattamento di sanitizzazione a freddo, è in grado di disattivare sia microrganismi patogeni che degradativi presenti in un determinato sistema, contribuendo a ridurre o contenere quindi lo sviluppo microbico nei prodotti alimentari. L’effetto di tale tecnologia, quando applicata a livelli compresi tra 60-200 MPa bar è stato valutato nei confronti di diversi patogeni quali Escherichia coli, Listeria monocytogenes, Yersinia enterocolitica, Staphylococcus aureus, Salmonella typhimurium microrganismi degradativi, come Bacillus subtilis e lieviti, deliberatamente inoculati in prodotti diversi.
Resumo:
Quattro sistemi pilota, cilindrici, rappresentanti SFS a flusso verticale sono stati adoperati in parallelo per attività di ricerca. Il refluo trattato, defluente dalla sede di Ingegneria di via Terracini e classificabile come urbano, è stato immesso negli SFSV a valle di una sedimentazione primaria. Segue una breve descrizione dei sistemi. 1. VFF - Vertical Flow Filter - Reattore assimilabile ad un filtro a sabbia; 2. VFCWW - Vertical Flow Constructed Wetland with worms - Reattore dotato sia di piante (tipologia Phragmites Australis) sia di vermi (lombrichi); 3. VFCW - Vertical Flow Constructed Wetland - Reattore dotato di piante (tipologia Phragmites Australis); 4. VFFW - Vertical Flow Filter with worms - Reattore assimilabile ad un filtro a sabbia dotato di vermi (lombrichi). Il rendimento offerto da ciascun sistema è stato calcolato sulla base dei risultati forniti dalle analisi eseguite in laboratorio su campioni prelevati in input ed output da ciascun reattore. L'obiettivo dello studio è stato quello di valutare l'efficienza dei sistemi in relazione ai parametri misurati (azoto e fosforo totale, solidi sospesi, COD, ione ammoniacale, ortofosfato).
Resumo:
Il fine della presente tesi è quello di definire parametri di riferimento progettuali e di controllo sul funzionamento degli abbattitori ad umido e degli abbattitori degli ossidi di azoto dalle emissioni industriali, utili ad una valutazione preventiva del progetto di impianto ed alla gestione dello stesso, da proporre come rappresentativi dello stato dell’arte per questi abbattitori. E’ innanzitutto effettuata una breve disamina sui composti inorganici quali inquinanti atmosferici: da quali fonti deriva la loro presenza in aria, quali sono gli effetti sull’ambiente, quantificazione delle emissioni antropiche per questa categoria di inquinanti e quali obiettivi di riduzione si pone la Regione Emilia Romagna. Viene quindi affrontata una breve sintesi della legislazione nazionale e regionale necessaria a comprendere dove si innesta la necessità di definire questi parametri di riferimento, con il confronto di disposizioni normative vigenti sull’argomento a livello nazionale e delle regioni Lombardia ed Emilia Romagna per giungere infine ad una proposta aggiornata. Si passa poi ad una descrizione accurata degli abbattitori ad umido e, di seguito, degli abbattitori degli ossidi di azoto, fornendo il discrimine tra le diverse tipologie presenti sul mercato e concretamente utilizzate in campo; inoltre grazie allo studio di due impianti presenti nel territorio di Modena viene fornita una comprensione più approfondita dei parametri tecnici di progettazione e funzionamento. L’analisi ha interessato: - parametri tecnici costruttivi; - parametri di funzionamento; - efficienza di abbattimento. La proposta conclusiva rappresenta la sintesi di confronto tecnico con esperti costruttori/installatori di impianti di depurazione dell’aria, di una dettagliata analisi conoscitiva delle caratteristiche e delle rese di abbattimento di impianti autorizzati, installati e controllati, presenti nel territorio della regione Emilia Romagna.
Resumo:
Nel quarto capitolo introduco il problema e spiego il funzionamento generale della macchina senza essere troppo dettagliato per mantenere i segreti industriali che siamo tenuti a rispettare. Le proposte di soluzioni sono state sviluppate sia da me, ragionando sul gruppo singolo ma anche sul gruppo complessivo in generale, altre invece sono state proposte dal mio correlatore, l’ingegner Fabrizio Rimondi, e anche il confronto con altri colleghi dell’ufficio tecnico è stato fondamentale per la realizzazione e il funzionamento del gruppo. Nel capitolo successivo ho spiegato in dettaglio le mie idee di soluzioni mettendo i relativi disegni di ogni componente di volta in volta dopo ogni modifica significativa. Ad ogni proposta ho cercato sempre di mettere le mie opinioni in merito cercando di valutare al meglio ogni tipo di approccio. Durante lo studio dei vari casi mi sono interfacciato continuamente con i fornitori per sapere se alcune delle nostre idee fossero realizzabili e quindi capire se continuare con una certa decisione o cambiare metodo di risoluzione. Dopo aver ideato 4 tipi di soluzioni abbiamo avuto un confronto con l’azienda cliente sentendo anche la loro opinione e arrivando alla decisione finale, portando delle modifiche a una delle soluzioni che ci è sembrata la più adatta al caso. Successivamente per capire se quel tipo di soluzione fosse possibile da implementare ho cercato vari fornitori per sentire la loro opinione e sapere se alcuni componenti fossero realizzabili portando le ultime modifiche alle singole parti. Successivamente nel settimo capitolo ho iniziato uno studio sul gruppo pompa da scegliere per collegarlo al gruppo oggetto di studio. Inizialmente ho fatto un’introduzione generale sulle pompe a vuoto e compressori volumetrici, dopodiché ho cercato, tra i vari cataloghi disponibili su internet, una pompa a vuoto idonea per i parametri richiesti dall’azienda cliente.
Resumo:
La tesi tratta della progettazione di una rete di polarizzazione ad elevata banda per la caratterizzazione di transistori in nitruro di gallio. Il progetto passo per passo analizza le problematiche del layout fino ad arrivare alla realizzazione pratica. In fine sono state effettuate misurazioni sulla rete di polarizzazione per verificare se i vincoli imposti dalle specifiche sono stati soddisfatti.
Resumo:
Il Building Information Modelling nasce da un processo di integrazione sostenibile, basato sull'interoperabilità dei processi. La caratteristica vincente è la circolarietà delle informazioni: ogni informazione è gestita come parametro di un ricco e complesso modello parametrico dell'edificio; la geometria, i materiali, i costi ed i tempi sono gestiti come parametri internamente collegati e quindi variabili di uno stesso sistema. Nel caso di beni storici, la maggior parte degli edifici possiede vincoli intrinseci che influenzano tali parametri. I materiali non possono essere scelti liberamente, in quanto parte di un organismo esistente, la geometria dell'edificio è definita e difficilmente sarà variata negli interventi di recupero. Nella presente tesi si applica il metodo CLOUD2FEM al mondo dell'Historic Building Information Modelling (HBIM) concentrandosi sullo studio della Rocca Estense di San Felice sul Panaro, colpita dal sisma dell'Emilia e attualmente inagibile. La procedura CLOUD2FEM permette di trasformare le informazioni ricavate dal laser scanner in mesh chiuse e regolari, generando in modo semi-automatico un modello FEM 3D. Nel caso di costruzioni complesse, la cui geometria non può essere ricondotta a modelli semplificati, è necessario valutare l'attendibilità del modello strutturale. Nel caso in esame, la validazione è stata condotta mediante il confronto del danno rilevato con il danno simulato. La flessibilità del modello permette di aggiungere dettagli inizialmente non rilevati: ogni informazione è inserita nel modello attraverso un parametro differente, al fine di eseguire analisi sullo stato di fatto e su futuri stati di progetto con semplice aggiornamento dei parametri.
Resumo:
L’oggetto di studio di questa tesi consiste nel primo approccio di sperimentazione dell’utilizzo di tecnologia UAV (Unmanned aerial vehicle, cioè velivoli senza pilota), per fotogrammetria ai fini di una valutazione di eventuali danni ad edifici, a seguito di un evento straordinario o disastri naturali. Uno degli aspetti più onerosi in termini di tempo e costi di esecuzione, nel processamento di voli fotogrammetrici per usi cartografici è dovuto alla necessità di un appoggio topografico a terra. Nella presente tesi è stata valutata la possibilità di effettuare un posizionamento di precisione della camera da presa al momento dello scatto, in modo da ridurre significativamente la necessità di Punti Fotografici di Appoggio (PFA) rilevati per via topografica a terra. In particolare si è voluto sperimentare l’impiego di stazioni totali robotiche per l’inseguimento e il posizionamento del velivolo durante le acquisizioni, in modo da simulare la presenza di ricevitori geodetici RTK installati a bordo. Al tempo stesso tale metodologia permetterebbe il posizionamento di precisione del velivolo anche in condizioni “indoor” o di scarsa ricezione dei segnali satellitari, quali ad esempio quelle riscontrabili nelle attività di volo entro canyon urbani o nel rilievo dei prospetti di edifici. Nell’ambito della tesi è stata, quindi, effettuata una analisi di un blocco fotogrammetrico in presenza del posizionamento di precisione della camera all’istante dello scatto, confrontando poi i risultati ottenuti con quelli desumibili attraverso un tradizionale appoggio topografico a terra. È stato quindi possibile valutare le potenzialità del rilievo fotogrammetrico da drone in condizioni vicine a quelle tipiche della fotogrammetria diretta. In questo caso non sono stati misurati però gli angoli di assetto della camera all’istante dello scatto, ma si è proceduto alla loro stima per via fotogrammetrica.
Resumo:
Il sistema muscolare scheletrico è l'insieme di organi adibiti al movimento, il quale è permesso dalla contrazione muscolare. L’elettromiografia è un esame di tipo funzionale che analizza il funzionamento di uno o più muscoli attraverso i potenziali elettrici che si sviluppano in esso durante la contrazione. Patologie del sistema muscolare o del sistema nervoso possono compromettere il comportamento fisiologico che il corpo richiede e l’elettromiografia può aiutare nella diagnosi. Oltre al campo medico, l’elettromiografia può dimostrarsi utile in ambito sportivo, valutando come il sistema muscolare evolve nella sua risposta quando sottoposto a cicli di lavoro o di recupero. Obiettivo dell’elaborato è descrivere e comprendere il principio di funzionamento dell’indagine elettromiografica, analizzando lo strumento elettromiografo e il segnale elettromiografico, e come può essere applicata in ambito sportivo. È fornita una breve descrizione del sistema muscolare, dal punto di vista strutturale e meccanico, e del sistema nervoso, dal punto di vista elettrico. Tali principi permettono di comprendere come la forza muscolare viene prodotta e come il segnale mioelettrico si propaga. Dell’elettromiografo sono presentati gli elementi utilizzati per la registrazione e l’elaborazione del segnale. Per quanto riguarda il segnale, invece, vengono esposti i metodi di acquisizione, interpretazione ed elaborazione digitale dello stesso. In un’ultima parte si confrontano alcune specifiche tecniche di elettromiografi commerciali in funzione della specifica applicazione. È infine affrontato l’utilizzo dell’elettromiografia in ambito sportivo, esponendo alcuni articoli riguardanti il nuoto e il rugby. Nel caso del nuoto è esaminato come alcuni muscoli reagiscono lavorando ad intensità diverse e tra atleti di livello agonistico differente. Invece, nel caso del rugby viene fatto un confronto su come alcuni muscoli si attivano in un soggetto sano e in un soggetto patologico.
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Direito, Programa de Pós-Graduação em Direito, 2016.
Resumo:
Tutti coloro che lavorano su appuntamento hanno una clientela da gestire. Per farlo, possono avvalersi di due opzioni: o utilizzano una buona parte del loro tempo per rispondere direttamente alle chiamate e ai messaggi dei clienti, oppure assumono una persona che si faccia carico personalmente dell’agenda del negozio, piuttosto che dello studio, a seconda dei casi. Gli aspetti negativi di queste due scelte non mancano. Nel primo caso, il diretto interessato può trovarsi interrotto da una chiamata nel pieno di un appuntamento. Il cliente lì presente deve attendere pazientemente che la conversazione finisca, ma la pazienza, giustamente, inizia a vacillare nel momento in cui le chiamate diventano numerose. Oltretutto la situazione può creare disagio al professionista in prima persona. In alcuni casi, inoltre, il cliente a casa è costretto ad aspettare tempi troppo lunghi prima di ricevere una risposta. Nel secondo caso, si ha un lavoro più fluido e senza interruzioni. Questo è ovviamente un fattore positivo, tuttavia l’assunzione di un addetto a rispondere al telefono, piuttosto che a messaggi o mail, ha un costo non indifferente. Analizzando i vari vantaggi e svantaggi dei metodi di prenotazione esistenti, è stata progettata una nuova soluzione che, tramite l'utilizzo dei bot e delle app di messaggistica, permette di prendere gli appuntamenti rimanendo il più fedeli possibile ai metodi classici, come i messaggi, ma con tutti i vantaggi dei metodi più tecnologici.
Resumo:
Attualmente, la maggior parte dei dati che transitano sulla rete appartiene a contenuti multimediali. Più nello specifico, è lo Streaming Video ad avere la predominanza nella condivisione di Internet; vista la crescita che tale servizio ha subìto negli ultimi anni, si sono susseguiti diversi studi volti allo sviluppo di tecniche e metodologie che potessero migliorarlo. Una di queste è sicuramente l'Adaptive Video Streaming, tecnica utilizzata per garantire all'utente una buona Quality of Experience (QoE) mediante l'utilizzo dei cosiddetti "algoritmi di rate adaptation". Il lavoro svolto in questi studi si è voluto concentrare su due filoni distinti, ma allo stesso tempo confrontabili: la prima parte della tesi riguarda lo sviluppo e l'analisi di alcuni algoritmi di rate adaptation per DASH, mentre la seconda è relativa all'implementazione di un nuovo algoritmo che li possa affiancare, migliorando la QoE nel monitorare lo stato della connessione. Si è quindi dovuta implementare un'applicazione Android per lo streaming video, che fosse conforme allo standard MPEG-DASH e potesse fornire le informazioni di testing da utilizzare per le analisi. La tesi è suddivisa in quattro capitoli: il primo introduce l'argomento e definisce la terminologia necessaria alla comprensione degli studi; il secondo descrive alcuni dei lavori correlati allo streaming adattivo e introduce i due filoni principali della tesi, ovvero gli algoritmi di rate adaptation e la proposta di algoritmo per la selezione dinamica del segmento; il terzo presenta l'app SSDash, utilizzata come mezzo per le analisi sperimentali; infine, il quarto ed ultimo capitolo mostra i risultati delle analisi e le corrispondenti valutazioni.
Resumo:
Oslo, capitale della Norvegia, sta sperimentando un’improvvisa crescita della popolazione e secondo le stime fornite da Statistics Norway si prevede un aumento di 200 000 abitanti entro il 2040. La crescita della popolazione comporterà un rilevante aumento di domanda di acqua e, insieme ad altri fattori quali l’età delle infrastrutture e i cambiamenti climatici, sarà responsabile di una notevole pressione sulle infrastrutture idriche presenti. In risposta alla necessità di tempestivi cambiamenti, il gestore del servizio idrico della città (Oslo VAV) ha deciso di finanziare progetti per migliorare la robustezza delle infrastrutture idriche. Il lavoro di tesi si inserisce all’interno del progetto E3WDM, istituito nel 2005 con lo scopo di definire una gestione più efficiente della risorsa idrica di Oslo. L’obiettivo generale della tesi è la creazione di un modello metabolico attraverso il software UWOT (Makropoulos et al., 2008) con lo scopo di rappresentare i consumi idrici di due tipiche tipologie abitative nella città di Oslo. L’innovazione di questo studio consiste nella definizione e nella modellazione della domanda idrica all’interno delle abitazioni ad un livello di dettaglio molto elevato. Il nuovo approccio fornito da UWOT consente la simulazione di differenti strategie di intervento e la successiva gestione ottimale della risorsa idrica in grado di minimizzare i consumi di acqua, di energia e i costi, compatibilmente con la domanda idrica richiesta. Il lavoro di tesi comprende: -La descrizione del software UWOT, in particolare lo scopo del modello, l’innovativo approccio adottato, la struttura e il procedimento per creare un modello del sistema idrico urbano. -La definizione dei dati richiesti per la simulazione dei consumi idrici all’interno delle abitazioni nella città di Oslo e i metodi utilizzati per raccoglierli -L’applicazione del modello UWOT per la definizione dei trend di consumi idrici e la successiva analisi dei risultati
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.
Resumo:
Nel sistema nervoso centrale i neuroni comunicano l'uno con l'altro attraverso le connessioni sinaptiche e sono soggetti a centinaia di stimoli, ma hanno la capacità di distinguerli l'uno dall'altro. L'abilità delle sinapsi di interpretare questi cambiamenti morfologici e biochimici è detta \textit{plasticità sinaptica} e l'obiettivo di questa tesi è proprio studiare un modello per le dinamiche di questo affascinante processo, da un punto di vista prima deterministico e poi stocastico. Infatti le reazioni che inducono la plasticità sinaptica sono ben approssimate da equazioni differenziali non lineari, ma nel caso di poche molecole bisogna tener conto delle fluttuazioni e quindi sono necessari dei metodi di analisi stocastici. Nel primo capitolo, dopo aver introdotto gli aspetti fondamentali del sistema biochimico coinvolto e dopo aver accennato ai diversi studi che hanno approcciato l'argomento, viene illustrato il modello basato sull'aggregazione delle proteine (PADP) volto a spiegare la plasticità sinaptica. Con il secondo capitolo si introducono i concetti matematici che stanno alla base dei processi stocastici, strumenti utili per studiare e descrivere la dinamica dei sistemi biochimici. Il terzo capitolo introduce una giustificazione matematica riguardo la modellizzazione in campo medio e vede una prima trattazione del modello, con relativa applicazione, sui moscerini. Successivamente si applica il modello di cui sopra ai mammiferi e se ne studia nel dettaglio la dinamica del sistema e la dipendenza dai parametri di soglia che portano alle varie transizioni di fase che coinvolgono le proteine. Infine si è voluto osservare questo sistema da un punto di vista stocastico inserendo il rumore di Wiener per poi confrontare i risultati con quelli ottenuti dall'approccio deterministico.