1000 resultados para Piccole e medie imprese - Rischi - Valutazione - Modelli econometrici
Resumo:
La quantificazione non invasiva delle caratteristiche microstrutturali del cervello, utilizzando la diffusion MRI (dMRI), è diventato un campo sempre più interessante e complesso negli ultimi due decenni. Attualmente la dMRI è l’unica tecnica che permette di sondare le proprietà diffusive dell’acqua, in vivo, grazie alla quale è possibile inferire informazioni su scala mesoscopica, scala in cui si manifestano le prime alterazioni di malattie neurodegenerative, da tale tipo di dettaglio è potenzialmente possibile sviluppare dei biomarcatori specifici per le fasi iniziali di malattie neurodegenerative. L’evoluzione hardware degli scanner clinici, hanno permesso lo sviluppo di modelli di dMRI avanzati basati su acquisizioni multi shell, i quali permettono di ovviare alle limitazioni della Diffusion Tensor Imaging, in particolare tali modelli permettono una migliore ricostruzione trattografica dei fasci di sostanza bianca, grazie ad un’accurata stima della Orientation Distribution Function e la stima quantitativa di parametri che hanno permesso di raggiungere una miglior comprensione della microstruttura della sostanza bianca e delle sue eventuali deviazioni dalla norma. L’identificazione di biomarcatori sensibili alle prime alterazioni microstrutturali delle malattie neurodegenerative è uno degli obbiettivi principali di tali modelli, in quanto consentirebbero una diagnosi precoce e di conseguenza un trattamento terapeutico tempestivo prima di una significante perdità cellulare. La trattazione è suddivisa in una prima parte di descrizione delle nozioni fisiche di base della dMRI, dell’imaging del tensore di diffusione e le relative limitazioni, ed in una seconda parte dove sono analizzati tre modelli avanzati di dMRI: Diffusion Kurtosis Imaging, Neurite Orientation Dispersion and Density Imaging e Multi Shell Multi Tissue Constrained Spherical Deconvolution. L'obiettivo della trattazione è quello di offrire una panoramica sulle potenzialità di tali modelli.
Resumo:
L’aumento crescente della domanda di idrocarburi a livello mondiale ha determinato un progressivo aumento dell’estrazione “offshore” e del trasporto via mare di petrolio. In questo contesto non sono da escludersi incidenti e conseguenti sversamenti di olio in mare. Sversato sulla superficie del mare, l’olio, subisce una serie di trasformazioni chimico-fisiche che prendono il nome di “processi di weathering”. In base alla quantità di prodotto rilasciato, i rilasci di olio possono portare ad ingenti danni ambientali, minando la sopravvivenza degli ecosistemi contaminati dall’olio. La condizione di rilevante criticità ambientale prodotta da uno sversamento accidentale di olio richiede la preparazione di precisi piani di intervento. Tipicamente le azioni intraprese hanno lo scopo di attuare la riduzione della massa di olio galleggiante e di evitare lo spiaggiamento dell’olio. Il presente lavoro di tesi si colloca nell’ambito della modellazione matematica degli sversamenti superficiali di olio in mare, al fine di quantificare l’influenza delle diverse azioni di emergenza sull’olio sversato. Lo scopo della tesi è quello di testare un software denominato ROC - Response Options Calculator, per simulare i fenomeni di weathering degli sversamenti di olio in presenza di azioni di emergenza di diversa tipologia. Il lavoro di tesi è suddiviso come segue: il capitolo 1 ha un ruolo introduttivo; nel capitolo 2 è descritto in dettaglio il software ROC; nel capitolo 3 è presentata l’applicazione del codice ad un caso di studio rappresentato da una piattaforma “offshore”, per la quale sono considerati 3 differenti scenari di rilascio accidentale sulla superficie del mare, a ciascuno dei quali corrisponde una diversa risposta all’emergenza ed un diverso insieme di risorse; nello stesso capitolo è inoltre presentata l’applicazione di un’equazione per la progettazione della risposta meccanica ad uno dei rilasci del caso di studio; il capitolo 4 riporta alcune considerazioni conclusive.
Resumo:
Gli integratori esponenziali costituiscono un'ampia classe di metodi numerici per la risoluzione di equazioni differenziali ordinarie. I primi esempi risalgono a ottanta anni fa e vennero introdotti per la prima volta da Certaine e Pope, ma non hanno avuto un ruolo importante nelle applicazioni per molto tempo, in quanto fanno uso esplicito dell'esponenziale di matrice o di funzioni di matrici di grandi dimensioni. Originariamente, tali metodi vennero sviluppati per problemi stiff e successivamente vennero applicati a equazioni differenziali alle derivate parziali; l'applicazione degli integratori esponenziali a problemi di notevole rilevanza diede inizio a un rigoroso approfondimento teorico e alla costruzione di nuove classi, ad esempio con ordine di convergenza maggiore. I primi modelli di integratori esponenziali sfruttano la linearizzazione del problema e fanno uso della matrice Jacobiana. In generale, tale matrice non ha una struttura particolare e varia continuamente nel tempo, pertanto le tecniche standard per la valutazione dell'esponenziale non sono molto efficienti dal punto di vista computazionale. In questa tesi, studiamo inizialmente l'esponenziale di matrice e il Metodo di Scaling and Squaring per approssimarlo. In seguito, introduciamo alcuni metodi numerici a un passo per la risoluzione di Problemi di Cauchy; infine studiamo il Metodo di Rosenbrock - Eulero che fa uso degli integratori esponenziali per risolvere problemi differenziali con dato iniziale, ne analizziamo convergenza e stabilità e lo applichiamo all'equazione differenziale alle derivate parziali di Allen - Cahn.
Resumo:
Questa tesi tratta di alcuni semplici modelli matematici, formulati in termini di equazioni differenziali ordinarie, riguardanti la crescita dei tumori e possibili trattamenti per contrastarla. Nel primo capitolo viene data un'introduzione sulla stabilità dei punti di equilibrio di sistemi di equazioni differenziali ordinarie, mentre nel secondo capitolo vengono affrontati e confrontati tre modelli ad una equazione: il modello esponenziale, il modello logistico e il modello di Gompertz. Si introducono poi due modelli a due equazioni differenziali: uno riguardante l'angiogenesi a due compartimenti e l'altro riguardante un modello lineare-quadratico applicato alla radiobiologia. Viene fatto poi un accenno ad un modello con equazioni alle derivate parziali. Infine, nell'ultimo capitolo, viene introdotto un modello a tre equazioni differenziali ordinarie a tre compartimenti in cui viene studiata l'interazione tra tre popolazioni di cellule: cellule immunitarie effettrici, cellule ospiti e cellule tumorali.
Resumo:
L’Imaging di Risonanza Magnetica (MRI) è una tecnica diagnostica multiparametrica e non dannosa che permette di acquisire immagini nelle quali risiedono informazioni di natura anatomica e funzionale. Utilizzando un campo magnetico di intensità bassa è possibile ottenere scanner portatili, silenziosi, sicuri ed economici evitando l’installazione di schermature magnetiche e a radiofrequenza. La risoluzione e il rapporto segnale rumore di queste immagini non è ottimale e gli artefatti da movimento sono considerevoli. Nonostante ciò, lo scanner MRI a basso campo è in grado di fornire immagini con importante valore diagnostico, in particolare in quei contesti in cui un esame tramite risonanza tradizionale non risulta possibile.
Resumo:
La memoria semantica, e la sua correlazione con il linguaggio, sono alla base di molti studi di neuroscienze cognitive e della formulazione di diverse teorie volte a comprendere la loro organizzazione, le unità neurali coinvolte e i meccanismi di apprendimento. In passato si cercava di rispondere a queste domande attraverso lo studio anatomico di lesioni della corteccia cerebrale in relazione al danno mnemonico che ne derivava per andare ad ipotizzare in quale area del cervello una determinata informazione veniva immagazzinata. Ricerche sempre più recenti hanno introdotto nel metodo di studio strumenti ed apparecchiature volte ad aiutare l’indagine e la ricerca, in modo da poter osservare e visualizzare quale area della corteccia viene attivata o disattivata in funzione ad uno specifico stimolo esterno. Infatti, l’attenzione dei ricercatori sui sintomi dei disturbi e sui disturbi stessi della memoria semantica, ha dato luce a molti aspetti importanti riguardo i meccanismi cerebrali fondamentali per la funzione corretta di tale memoria. Nel corso degli anni quindi attraverso questi studi sono stati sviluppati diversi modelli teorici con lo scopo di analizzare e studiare i meccanismi alla base delle diverse memorie, in questo caso della memoria semantica. È grazie a questi modelli che si può cercare di comprendere come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Pertanto, si esaminano i modelli computazionali tradizionali nell'ambito dei modelli di rete (basati su associazioni libere), dei modelli di caratteristiche (basati su norme di generazione di proprietà) e dei modelli distributivi, discutendo il loro contributo a importanti dibattiti in letteratura sulla rappresentazione della conoscenza e apprendimento. Inoltre, si valuta come i moderni modelli computazionali, ad esempio modelli basati sul recupero, stanno rivisitando il tradizionale concetto di memoria "statica".
Resumo:
In questa trattazione viene presentato lo studio di un modello a raggi che permette di simulare il comportamento macroscopico delle Superfici Intelligenti. L’ottimizzazione del canale radio, in particolare dell’ambiente di propagazione, si rivela fondamentale per la futura introduzione del 6G. Per la pianificazione della propagazione in ambienti ampi, risulta necessario implementare modelli di simulazione. I modelli a raggi possono essere integrati più facilmente all’interno di algoritmi per le previsioni di campo computazionalmente efficienti, come gli algoritmi di Ray Tracing. Nell’elaborato si è analizzato il comportamento del modello, con riferimento a tre funzioni tipiche realizzate da una Superficie Intelligente: il riflettore anomalo, la lente focalizzante e la lente defocalizzante. Attraverso una griglia di ricevitori è stato calcolato il campo dell’onda nelle varie configurazioni. Infine, si sono confrontati i risultati ottenuti con quelli del modello elettromagnetico.
Resumo:
Il cancro è un processo autosufficiente e adattivo che interagisce dinamicamente con il suo microambiente, la cui diagnosi, complessa e dispendiosa in termini di tempo e numero di specialisti impiegati, viene solitamente effettuata valutando l’imaging radiografico oppure effettuando un esame istologico. L'interpretazione di tali immagini risulta generalmente molto complessa, a questo scopo sarebbe molto utile poter addestrare un computer a comprendere tali immagini potendo di fatto affiancarsi allo specialista, senza sostituirlo, al momento della diagnosi. A questo scopo è possibile affidarsi alle tecniche di apprendimento automatico, sistema alla base dell’intelligenza artificiale (AI), le quali permettono di fatto di apprendere automaticamente la rappresentazione delle caratteristiche da immagini campione. Tali tecniche di intelligenza artificiale, hanno però bisogno, per essere addestrate, di grandi quantità di dati in cui il segnale di uscita desiderato è noto, comportando di fatto un aumento delle tempistiche di addestramento. Inoltre, in ambito sanitario, i dati sono distribuiti su più archivi, dislocati sul territorio nazionale, rendendo impossibile l’utilizzo di soluzioni centralizzate. L’obbiettivo di questa trattazione sarà cercare di trovare una soluzione a queste due problematiche, ricorrendo all’utilizzo delle tecniche di parallelizzazione. A seguito dell'introduzione dello scenario biologico e delle tecniche di diagnostica ad esso associato è presentato il percorso di creazione della rete neurale. A seguito del suo addestramento sulla GPU di una singola macchina, ottenendo un'accuratezza dell'83.94% in 5 ore 48 minuti e 43 secondi, è stata introdotto la parallelizzazione ed una sua implementazione. In conclusione, sfruttando il sistema implementato, è stata distribuita la fase di addestramento prima su due macchine e poi su tre, ottenendo una diminuzione del tempo di addestramento rispettivamente del 31.4% e del 50%.
Resumo:
A fianco ai metodi più tradizionali, fin ora utilizzati, le tecnologie additive hanno subito negli ultimi anni una notevole evoluzione nella produzione di componenti. Esse permettono un ampio di range di applicazioni utilizzando materiali differenti in base al settore di applicazione. In particolare, la stampa 3D FDM (Fused Deposition Modeling) rappresenta uno dei processi tecnologici additivi più diffusi ed economicamente più competitivi. Le tempistiche e le richieste industriali obbligano sempre di più i progettisti ad uno studio predittivo delle problematiche che si possono incontrare in fare produttiva. In ambito strutturale questo è già da diversi anni la norma per componenti realizzati con tecnologia tradizionale. In ambito termico, invece, si procede ancora troppo spesso per tentativi seguendo l’esperienza del singolo. Per questo motivo, è necessario uno studio approfondito e un metodo per caratterizzare i transitori termici. Per fare ciò è necessario introdurre un modello semplificativo attraverso l’uso su un provino cilindrico. Questa semplice geometria permette di mettere in relazione la soluzione analitica, la soluzione approssimata agli elementi finiti e la soluzione sperimentale. Una volta ottenuti questi risultati sarà poi possibile, mantenendo invariati il ciclo termico e le caratteristiche termo-strutturali del materiale, modificare a piacimento la geometria per analizzare un qualsiasi componente. Questo approccio permette quindi di realizzare delle analisi FEM sui componenti da stampare e di predirne i gradienti termici e le deformazioni a partire dalle caratteristiche del materiale, della geometria e del ciclo termico a cui sono sottoposti. Permettendo così di valutare in modo preventivo e predittivo problematiche di stabilità geometrica e strutturale.
Resumo:
La prima parte della seguente tesi intende studiare lo stato dell’arte in ambito delle principali tecnologie di smaltimento e di recupero dei rifiuti da costruzione, per poi analizzare le metodologie di analisi del sistema di decostruzione, basate su processi di calcolo semplificati. La seconda parte si concentra invece sul confronto tra due ipotesi di intervento differenti: uno scenario di riqualificazione energetica e uno di demolizione e ricostruzione. L’obiettivo della ricerca è indagare quale dei due interventi sia il più circolare e sostenibile, dal punto di vista ambientale ed economico. Questo obiettivo si concretizza mediante lo svolgimento di una analisi LCA attraverso l’utilizzo del software OneClick LCA. Il caso di studio sul quale viene svolta tale indagine consiste nella villa realizzata agli inizi del Novecento, appartenente al complesso “Corte Palazzo” sito ad Argelato (Bologna). Per lo scenario di demolizione, dopo una prima analisi iniziale delle tecniche circolari da poter applicare più adeguate al contesto esistente, è stato sviluppato un progetto che rispettasse le stesse caratteristiche dimensionali (in termini di sagoma) e le stesse prestazioni dell’involucro (in termini di trasmittanza termica) dell’edificio riqualificato. Il metodo di analisi proposto, reiterabile e proposto ad altri casi di studio, eventualmente implementato per includere tutti i materiali che compongono il sistema costruttivo e non soltanto quelli dell’involucro, rappresenta un efficace strumento di valutazione dell’impatto ambientale ed economico degli interventi, per consentire ai progettisti e ai committenti di compiere scelte più consapevoli.
Resumo:
Il complesso che ospita la Pinacoteca Nazionale di Bologna e l’Accademia delle Belle Arti si colloca nel quartiere universitario bolognese, tra via delle Belle Arti e via Irnerio. Nato dall’aggregazione di corpi settecenteschi che si alternano a spazi chiostrali, l’edificio oggi ospita anche la Direzione Regionale Musei Emilia-Romagna e il “Settore Archeologia” della Soprintendenza Archeologia, Belle Arti e Paesaggio per la città metropolitana di Bologna e le province di Modena, Reggio Emilia e Ferrara. La Pinacoteca nasce dall’esigenza di raccogliere una cospicua produzione di dipinti del patrimonio artistico bolognese, per garantirne la sopravvivenza; si scelse di collocarla in un edificio conventuale dei padri gesuiti dopo le soppressioni degli ordini religiosi. L’impianto originario di edificio a corte a pianta quadrata non fu mai alterato, ma adattato a percorso espositivo nel corso dei secoli, ed è oggi frutto di numerose sopraelevazioni e ampliamenti volumetrici. È possibile individuare tre unità strutturali: la parte storica con ex convento, ex chiesa di Sant’Ignazio ed il rinascimentale Palazzo Ancarano; sul retro, i due corpi più recenti, l’ala Collamarini e l’ala ovest. Le tre unità appartengono a epoche diverse e ognuna rispecchia le soluzioni tecnologiche del proprio tempo: muratura di mattoni e solai a volte del 1700, struttura “mista” di inizio ‘900 e telaio in cemento armato degli anni ’60. Finalità della tesi è quella di effettuare una valutazione della vulnerabilità sismica globale della porzione storica mediante modelli semplificati, accompagnata da una valutazione dei cinematismi locali ritenuti attivabili a causa del sisma. La prima modalità, a livello globale, fornisce una stima della risposta sismica sottoforma di indicatore di vulnerabilità. L’analisi cinematica, a livello locale, pone le basi per indirizzare il progetto di miglioramento strutturale con interventi locali poco invasivi nell’ottica del minimo impatto sul manufatto storico.
Resumo:
Molti edifici realizzati negli anni ‘80-‘90 sono caratterizzati da impianti con caldaie autonome e nell’ambito degli interventi di riqualificazione energetica solo raramente vengono inserite delle pompe di calore a causa della temperatura di funzionamento dell’impianto, che spesso deve essere mantenuta elevata per i sistemi di emissione a radiatori. Tuttavia la riduzione dei carichi termici dovuti all'isolamento degli edifici consente di utilizzare i terminali esistenti facendoli lavorare a bassa temperatura, con temperature medie di 45-50°C. Obiettivo principale della tesi è quindi la valutazione della fattibilità e dei vantaggi energetici nell’ambito della sostituzione di un sistema di riscaldamento autonomo a gas con un sistema a pompa di calore. Viene preso in esame un edificio condominiale formato da 47 alloggi sito a San Lazzaro di Savena e in particolare verrà valutata la fattibilità di inserire un impianto centralizzato a pompa di calore per ogni corpo scala di cui è composto l’edificio, alimentando l’impianto con pannelli fotovoltaici installati in copertura. Per valutare i vantaggi energetici è stato utilizzato il software di simulazione dinamica Design Builder che consente di analizzare i fabbisogni energetici e la produzione di energia con step orario. Il modello dinamico permette anche di studiare le strategie d’involucro più opportune per diminuire il fabbisogno energetico e poter far lavorare la pompa di calore con i radiatori esistenti a bassa temperatura. I risultati attesi dal lavoro sono molteplici: in primo luogo verificare che la scelta dell’introduzione della pompa di calore consenta all'edificio di ridurre i consumi di energia primaria da fonti non rinnovabili, con lo scopo di portare l’edificio ad una richiesta di quasi zero energia (NZEB) in linea con le nuove normative europee e nazionali; in secondo luogo che l’utilizzo della simulazione oraria consenta di valutare il matching reale tra produzione e consumo di energia.
Resumo:
L’elaborato presenta lo sviluppo di un’applicazione web che unisce il con- cetto di crowdsourcing, ovvero un paradigma in cui una colletività esegue una mansione per il raggiungimento di un obiettivo; e il concetto di crowd- sensing, paradigma nel quale un gruppo di persone, utilizzando il proprio dispositivo mobile, condivide dati, che possono essere successivamente stu- diati. SmartCrowd si pone come intermediario tra questi due modelli, e la sua implementazione permette di raccogliere dati da una “folla” che faccia uso dei dispositivi mobili, usufruendo di una piattaforma di crowdsourcing. Con SmartCrowd vengono create le campagne, ovvero insieme di attività svol- te dagli utenti finali; esiste un sistema di interazione con la piattaforma di crowdsourcing di Microworkers, volta al reclutamento delle persone; la con- divisione dei dati tramite smartphone, usando il sensore GPS, eseguita dagli utenti ed infine, tramite SmartCrowd è possibile analizzare i dati ricevuti e fare una valutazione positiva o negativa.
Resumo:
Diverse organizzazioni nel mercato si chiedono come fare per permettere uno sviluppo della propria azienda in un mercato caratterizzato da sempre più competitor e un numero sempre maggiore di canali su cui i consumatori possono essere raggiunti. Fare branding è la risposta. Il branding è una pratica di marketing che permette all’azienda di distinguere i propri prodotti o servizi e quindi di identificare ciò che l’azienda stessa vende. Il processo di branding è un processo continuo e perpetuo che nel tempo permette alle aziende di plasmare la percezione di un marchio nella mente del consumatore. Le strategie di branding che possono essere applicate sono diverse e dipendono molto dal budget a disposizione dell’azienda. Per questo, nel caso di piccole-medio imprese con dei budget limitati, lo sviluppo della marca risulta essere un processo strategico per la loro crescita e diventa necessario in un mercato saturo come quello attuale. Risulta quindi importante per le PMI utilizzare e sfruttare il brand come un vero contenitore di significati, in grado di dare coerenza alla comunicazione e alle azioni aziendali e per identificare una direzione precisa da raggiungere. L’obiettivo di questo studio è quello di determinare in che modo ad oggi l’azienda Valentina Giorgi, piccola-media impresa italiana, utilizza il proprio brand sia a livello comunicazionale sia a livello distributivo per crescere come azienda ed espandersi. A questo proposito sono state indagate sia le strategie comunicative e distributive attuate finora dall’azienda, per comprendere il motivo per cui sono state svolte e analizzarne l’efficacia, oltre a ricercare lo scostamento presente tra l’idea che l’azienda ha costruito del brand e quella effettivamente percepita dai consumatori.
Resumo:
La presente sperimentazione ha avuto come obiettivo la formulazione di oli aromatizzati, ottenuti mediante la tecnica di co-frangitura delle olive con arancia, sottoprodotti dell’arancia, melagrana e pepe nero. In questo lavoro di tesi viene affrontata la definizione di olio aromatizzato, cioè un olio d’oliva arricchito con uno o più composti aromatici, come oli essenziali, spezie, erbe aromatiche o frutti. Inizialmente vengono esposte le principali tecniche di aromatizzazione. Successivamente vengono trattati i principali parametri di qualità per la classificazione merceologica degli oli, i composti volatili e i composti fenolici che caratterizzano questi prodotti, ed infine viene descritta la valutazione sensoriale degli oli d’oliva. I campioni di olio prodotti sono stati sottoposti ad analisi per la valutazione dello stato idrolitico, mediante determinazione titrimetrica dell’acidità libera e del contenuto di composti ad attività riducente tramite determinazione spettrofotometrica con reattivo di Folin-Ciocalteu. Infine, sono stati studiati i composti volatili degli oli aromatizzati prodotti, identificando e quantificando i principali attributi sensoriali mediante analisi descrittiva effettuata da un gruppo di assaggiatori addestrati. Dalle analisi eseguite sui campioni si è potuto riscontrare come gli oli prodotti non abbiano problemi di degradazione idrolitica, possiedano un contenuto medio/alto di composti fenolici e siano caratterizzati dalla presenza di attributi secondari positivi.