1000 resultados para Piccole e medie imprese - Rischi - Valutazione - Modelli econometrici
Sintesi di nuovi derivati pirimidinici e valutazione della loro attività biologica come antitumorali
Resumo:
L'inibizione dell'attività della proteina CDC20, importante nel processo di regolazione del ciclo cellulare, è attualmente considerata un target sul quale indirizzare la ricerca di farmaci per il trattamento della leucemia mieloide acuta (LAM). Recenti studi hanno evidenziato che il nucleo 2-amminopirimidinico e il gruppo tricloroetilenico si sono dimostrati essenziali per l’inibizione del processo di attivazione di CDC20. In questo lavoro di tesi è spiegata la sintesi di derivati indolici, benzotiazolici e benzofurazanici aventi in comune i gruppi 2-amminopirimidinico e tricloroetilenico; sono inoltre riportati i risultati dei saggi di attività biologica effettuati su linee cellulari di LAM e altri carcinomi umani.
Resumo:
L'abbandono del cliente, ossia il customer churn, si riferisce a quando un cliente cessa il suo rapporto con l'azienda. In genere, le aziende considerano un cliente come perso quando un determinato periodo di tempo è trascorso dall'ultima interazione del cliente con i servizi dell'azienda. La riduzione del tasso di abbandono è quindi un obiettivo di business chiave per ogni attività. Per riuscire a trattenere i clienti che stanno per abbandonare l'azienda, è necessario: prevedere in anticipo quali clienti abbandoneranno; sapere quali azioni di marketing avranno maggiore impatto sulla fidelizzazione di ogni particolare cliente. L'obiettivo della tesi è lo studio e l'implementazione di un sistema di previsione dell'abbandono dei clienti in una catena di palestre: il sistema è realizzato per conto di Technogym, azienda leader nel mercato del fitness. Technogym offre già un servizio di previsione del rischio di abbandono basato su regole statiche. Tale servizio offre risultati accettabili ma è un sistema che non si adatta automaticamente al variare delle caratteristiche dei clienti nel tempo. Con questa tesi si sono sfruttate le potenzialità offerte dalle tecnologie di apprendimento automatico, per cercare di far fronte ai limiti del sistema storicamente utilizzato dall'azienda. Il lavoro di tesi ha previsto tre macro-fasi: la prima fase è la comprensione e l'analisi del sistema storico, con lo scopo di capire la struttura dei dati, di migliorarne la qualità e di approfondirne tramite analisi statistiche il contenuto informativo in relazione alle features definite dagli algoritmi di apprendimento automatico. La seconda fase ha previsto lo studio, la definizione e la realizzazione di due modelli di ML basati sulle stesse features ma utilizzando due tecnologie differenti: Random Forest Classifier e il servizio AutoML Tables di Google. La terza fase si è concentrata su una valutazione comparativa delle performance dei modelli di ML rispetto al sistema storico.
Resumo:
Nel seguente lavoro di tesi, l’analisi dell’efficienza idraulica è stata condotta sulla base dei tradizionali parametri di simulazione di una rete idrica, come carichi idraulici ai nodi e portate erogate, ma sfruttando l’ausilio di un indice di performance di rete sintetico e globale, ovvero l’Indice di resilienza, introdotto da Todini (2000; 2016). Infatti, tale indice, rientrando tra i parametri con cui valutare lo stato complessivo di “benessere idraulico” di una rete, ha il vantaggio di poter fungere da criterio di selezione di eventuali interventi migliorativi da operare sulla rete stessa. L’analisi si è concentrata sull’utilizzo dell’Indice di resilienza come strumento per la misura delle prestazioni di una rete di distribuzione idrica semplificata, utilizzata come caso studio: per far ciò, si sono messi a confronto i risultati relativi a diversi scenari, ottenuti simulando la rottura in successione delle tubazioni della rete, oppure ipotizzando incrementi di richiesta idrica ai nodi. In generale, i risultati delle simulazioni idrauliche, effettuate con l’ausilio combinato dei software di calcolo EPANET 2.2 e Matlab, hanno mostrato che la resilienza può essere utilizzata per quantificare la robustezza di una rete idrica, presentando forti correlazioni con le pressioni ai nodi. Durante il corso di queste analisi, si è anche voluto mostrare lo sviluppo analitico subito nel tempo dalla formula dell’Indice di resilienza, della quale in principio era stata proposta una formulazione pensata per l’approccio Demand Driven, poi estesa all’approccio di modellazione Pressure Driven. L’intento finale dell’elaborato è stato quello di capire tramite quali mezzi poter migliorare la resilienza del sistema in esame: è emerso che la soluzione ottimale è quella di sfruttare gli effetti benefici derivanti dall’azione combinata della sostituzione dei diametri e del risparmio idrico derivante dalla riduzione delle perdite idriche e degli sprechi nei consumi idropotabili.
Resumo:
L’utilizzo di biomasse come fonte di chemicals nell’industria chimica mira a rendere più sostenibili i processi industriali e i materiali prodotti. In particolare, l’acido crotonico (AC), impiegato come building block nella produzione di vernici e rivestimenti, è prodotto tradizionalmente da fonti fossili. La domanda globale ammonta a circa 1000 tonnellate ed è in continuo aumento, rendendo prioritaria l’individuazione di una sintesi alternativa e sostenibile. In questo studio, l’analisi del ciclo di vita (life cycle assessment, LCA) è stata applicata per stimare la carbon footprint e la domanda cumulativa di energia relative ad una sintesi innovativa dell’AC, basata sulla conversione termica di un precursore derivato da biomasse di scarto. In particolare, il processo prevede l’applicazione di un trattamento termochimico a poli-idrossi-butirrati (PHB) prodotti da colture batteriche miste a valle del processo B-PLAS. Sono stati modellati due scenari comparativi con l’obiettivo di (i) valutare la sostenibilità ambientale della sintesi alternativa nella tecnologia B-PLAS, considerando una condizione “base” di processo (con un contenuto di PHB pari al 30% nello slurry in ingresso al processo) e una “ottimale” (con un contenuto di PHB pari al 60%); (ii) confrontare gli impatti ambientali del processo di sintesi alternativo per entrambi gli scenari con quelli di sintesi dell’AC da fonti fossili. I risultati dell’LCA mostrano che nel processo B-PLAS, giunti alla produzione dello slurry (fango) arricchito in PHB, si possono avere due strade equivalenti estraendo i PHB o convertendoli in AC con una lieve preferenza per il processo estrattivo (0.71MJ/kgslurry vs 1.11MJ/kgslurry) nella condizione di base e (0.69MJ/kgslurry vs 1.17MJ/kgslurry) in quella ottimale. Estendendo la comparazione alla produzione dell’AC da fonti fossili, quello bioderivato comporta un impatto ambientale ampiamente inferiore, stimato in 159.6 MJ/kgAC e 204.6 MJ/kgAC per gli scenari “base” e “ottimale”.
Resumo:
Il presente elaborato riguarda la valutazione degli effetti dell'uso di due chiarificanti a base di proteine vegetali, sulle caratteristiche chimico-fisiche di un vino bianco. Allo scopo, il vino (cv. Albana) è stato trattato con due preparati di origine vegetale (proteine di patata e pisello) confrontati con un trattamento tradizionale effettuato con caseina (tutti aggiunti a 40 g/Hl). Sui vini chiarificati sono stati verificati alcuni parametri compositivi generali, la frazione fenolica ed i composti volatili. Il preparato a base di proteine di patata ha fornito i migliori risultati per ciò che riguarda il rispetto dell'integrità del prodotto di partenza, con migliori apprezzamenti anche dal punto di vista sensoriale. L'uso di proteine di pisello, per contro, pur garantendo un buon livello di chiarifica, ha generato un prodotto non apprezzato dal panel tecnico della cantina presso cui sono state effettuate le prove.
Resumo:
In questa tesi si trattano lo studio e la sperimentazione di un modello generativo retrieval-augmented, basato su Transformers, per il task di Abstractive Summarization su lunghe sentenze legali. La sintesi automatica del testo (Automatic Text Summarization) è diventata un task di Natural Language Processing (NLP) molto importante oggigiorno, visto il grandissimo numero di dati provenienti dal web e banche dati. Inoltre, essa permette di automatizzare un processo molto oneroso per gli esperti, specialmente nel settore legale, in cui i documenti sono lunghi e complicati, per cui difficili e dispendiosi da riassumere. I modelli allo stato dell’arte dell’Automatic Text Summarization sono basati su soluzioni di Deep Learning, in particolare sui Transformers, che rappresentano l’architettura più consolidata per task di NLP. Il modello proposto in questa tesi rappresenta una soluzione per la Long Document Summarization, ossia per generare riassunti di lunghe sequenze testuali. In particolare, l’architettura si basa sul modello RAG (Retrieval-Augmented Generation), recentemente introdotto dal team di ricerca Facebook AI per il task di Question Answering. L’obiettivo consiste nel modificare l’architettura RAG al fine di renderla adatta al task di Abstractive Long Document Summarization. In dettaglio, si vuole sfruttare e testare la memoria non parametrica del modello, con lo scopo di arricchire la rappresentazione del testo di input da riassumere. A tal fine, sono state sperimentate diverse configurazioni del modello su diverse tipologie di esperimenti e sono stati valutati i riassunti generati con diverse metriche automatiche.
Valutazione dell'effetto dei campi elettrici pulsati sulle cinetiche di salagione di branzino fresco
Resumo:
In questo studio è stato valutato l'impatto dei campi elettrici pulsati applicati a diverse intensità (0.3, 0.9 e 1.5 kV/cm) su campioni di branzino fresco prima del processo di salamoiatura. Dopo 24, 96, 144 e 92 ore sono stati determinati il peso, il contenuto in acqua, la percentuale di NaCl, l'attività dell'acqua e il contenuto in TBARS nei campioni allo scopo di verificare la possibilità di accelerare il trasferimento di massa nella matrice, e in secondo luogo per valutare l'effetto dei campi elettrici pulsati sull'ossidazione lipidica.
Resumo:
I crostacei sono da sempre considerati prodotti ittici d'elevato valore economico (FAO 2020) soggetti ad un'alta deperibilità a causa dello sviluppo di colorazioni brune nella zona cefalotoracica ed addominale del carapace (Goncalves et al. 2016). Nell'ottica di una riduzione degli sprechi alimentari e vista la crescente sensibilità dei consumatori verso alimenti clean-lable, questo studio valuta l'effetto dell'acqua attivata al plasma (PAW) nel ritardare la comparsa di melanosi su mazzancolle (P. kerathurus) e gamberi rosa (P. longirostris), confrontandone l'effetto con i più comuni trattamenti (solforosa e 4-esilresorcinolo). La valutazione della melanosi si è svolta per mezzo di un sistema di visione computerizzata (CVS) e successiva analisi delle immagini digitalizzate. Dalle prove sulle mazzancolle è emerso un effetto protettivo dell'acqua attivata al plasma per i primi 5 giorni di conservazione, mentre per i gamberi rosa non si sono ottenute differenze significative (p<0.05) rispetto ai campioni trattati con sola acqua. I migliori risultati nel contenimento della melanosi si sono ottenuti dai campionitrattati con 4-esilresorcionolo, tuttavia si è anche sviluppata una colorazione rossa sul carapace giudicabile, secondo altri studi, come sgradevole (Pilar Montero et al. 2001).
Resumo:
Trattamento dati, modellazione e calibrazione di un motore da competizione
Resumo:
L’obiettivo della tesi è stato quello di valutare la vulnerabilità sismica di edifici ordinari in muratura tipici del costruito del Comune di Maranello (MO), e di stimare le curve di fragilità. Vengono individuate le tipologie strutturali in muratura tipiche degli edifici del Comune, che viene suddiviso in comparti secondo il metodo CARTIS. Lo scopo è stato di definire quali sono le tipologie in muratura più vulnerabili, e quindi i comparti del Comune costituiti dagli edifici in muratura più fragili dal punto di vista sismico. La valutazione della vulnerabilità sismica di alcuni edifici rappresentativi delle tipologie murarie esistenti nel territorio analizzato è stata eseguita mediante due metodologie: la prima è una metodologia speditiva chiamata RE.SIS.TO., una valutazione semplificata sviluppata dall’Università degli Studi di Bologna, con l’obiettivo di definire lo stato di criticità degli edifici e di definire la priorità di intervento in tempi brevi; la seconda è una metodologia di valutazione più accurata eseguita attraverso l’analisi statica non lineare con il software 3Muri, un programma per il calcolo sismico delle strutture in muratura.
Resumo:
Nell’ambito dello studio della vulnerabilità delle strutture in muratura la modellazione dei maschi murari e la conseguente verifica avviene convenzionalmente considerando tali partizioni come indipendenti, ovvero suddividendo, dapprima,i maschi murari a seconda della loro disposizione spaziale nei confronti della direzione della azione sismica e, successivamente, considerando il contributo dei maschi murari come agenti “in parallelo”.In tale scenario, la modellazione al continuo rende la definizione del singolo maschio murario non banale, in quanto tale tipologia di modellazione vede la geometria dell’edificio come un “unicum” strutturale.Questa dissertazione si prefigge di qualificare e quantificare le differenze scaturite dalla diversa suddivisione dei maschi e delle zone di interfaccia tra diverse pareti murarie, valutando il comportamento del maschio stesso in termini di taglio e sforzo normale ottenuti mediante un’analisi statica non lineare (Pushover). Due modelli ispirati a strutture reali sono analizzati a tal proposito: - Il prototipo testato nel 1994 nel Laboratorio dell’Università di Pavia (modello benchmark n°4). - La scuola “P.Capuzi” di Visso (MC), edificio monitorato permanentemente dall’Osservatorio Sismico delle Strutture del Dipartimento di Protezione Civile [3] e ad oggi demolito (modello benchmark n°5). Il lavoro qui presentato si inserisce in un più ampio programma di ricerca svolto in sinergia da varie unità coinvolte nel progetto ReLUIS 2017/2108 – Linea Strutture in Muratura [1][2] e avente come oggetto l’analisi di strutture benchmark per la valutazione dell’affidabilità di codici di calcolo. I modelli sono stati studiati eseguendo analisi di tipo statico non lineare (Pushover) con distribuzione di forze proporzionale alle masse.
Resumo:
Lo studio di modelli teorici e matematici della memoria semantica ricopre un ruolo importante nelle neuroscienze cognitive. I modelli neuro-computazionali sviluppati negli ultimi decenni vengono impiegati per spiegare e simulare come le informazioni recepite dall’esterno vengono memorizzate e successivamente utilizzate. In questo elaborato si sviluppa un modello di rete semantica per il riconoscimento di concetti, definiti come insieme di caratteristiche. Fondamentale è il ruolo assunto dalle diverse proprietà, che sono state suddivise fra salienti e marginali, distintive e condivise. I concetti presi in considerazione con le rispettive feature, fanno parte di un ampio data set fornito dalla Dott.ssa Catricalà. La rete sviluppata rientra tra i modelli di massa neuronale che considera quattro popolazioni di neuroni: piramidali, inter-neuroni eccitatori, inter-neuroni inibitori lenti e inter-neuroni inibitori veloci. Il modello sviluppato si basa sullo studio del professor Ursino et al. e utilizza oscillatori in banda gamma. Tramite sincronizzazione di queste oscillazioni è possibile memorizzare concetti e successivamente recuperarli, mantenendoli in memoria simultaneamente. Il richiamo di più concetti contemporaneamente avviene tramite desincronizzazione delle oscillazioni ad opera di un inibitore globale, modellato tramite funzione a gradino. Per modellare l’apprendimento della rete è stata utilizzata la regola di Hebb, sfruttando soglie pre e post-sinaptiche differenti così da costruire sinapsi asimmetriche che permettono una differenziazione delle feature.
Resumo:
A metà del secolo scorso in Italia un elevato numero di edifici in cemento armato con struttura a telaio è stata realizzata, in accordo con la Normativa dell’epoca, per resistere unicamente alle azioni verticali presentando un’elevata vulnerabilità nei riguardi delle azioni sismiche. I cambiamenti apportati dalle più recenti Normative volgono l’attenzione alla problematica della vulnerabilità sismica degli edifici esistenti, rendendo l’analisi del comportamento di questi ultimi un tema di grande rilevanza ed attualità. In questo contesto, viene selezionato un edificio esistente per il quale viene valutata la capacità sismica mediante una metodologia analitica denominata SLaMA, e vengono stimate le perdite economiche sismiche utilizzando la metodologia del Sisma Bonus Italiano. L’utilizzo di metodologie di calcolo semplificate rappresenta al giorno d’oggi una robusta alternativa da utilizzare in fase di valutazione progettuale preliminare. Le operazioni eseguite per l’edificio esistente vengono poi ripetute anche per due differenti opzioni di rinforzo strutturale proposte per lo stesso. I risultati ottenuti in termini di capacità sono stati posti a confronto con quelli ricavati dalla modellazione ad elementi finiti su software di calcolo per validare il metodo semplificato, mentre i risultati derivati dal calcolo delle perdite economiche sono stati confrontati con quelli ricavati mediante una metodologia più raffinata di analisi per verificare la corrispondenza e l’accuratezza del parametro di perdita calcolato (PAM). Infine, vengono esposti i risultati ottenuti per gli edifici analizzati proponendo dei confronti fra gli stessi, in modo da individuare la scelta progettuale più conveniente sia in merito alla performance sismica dell’edificio che alla riduzione della perdita economica attesa.
Resumo:
Background: Le early-onset sepsis (EOS) sono infezioni batteriche invasive definite dalla presenza di batteri nel sangue e/o nel liquor cefalorachidiano che esordiscono nelle prime 72 ore di vita e causano in epoca neonatale mortalità e morbilità importanti. Scopo: Determinare l’eccesso di trattamento antibiotico (Overtreatment index=OI) nei neonati di EG ≥34 settimane con sospetta sepsi ad esordio precoce. Metodi: Tutti i nati dal 1.01.2014 al 31.12.2018 di EG ≥34 settimane presso IRCCS Azienda Ospedaliero-Universitaria e l’Ospedale Maggiore di Bologna che hanno ricevuto terapia antibiotica endovenosa nelle prime 168 ore di vita nel sospetto di EOS. Sono stati identificati 2 gruppi: EOS provata (N=7) ed EOS sospetta (N=465). Risultati: L’incidenza di EOS è stata 0.22 su 1000 nati vivi, rispettivamente 0.12/1000 per Streptococcus agalactiae (GBS) e 0.06/1000 per Escherichia coli (E.coli). L’1.75% dei neonati ha ricevuto terapia antimicrobica empirica a largo spettro. L’OI è risultato 68. L’esposizione al trattamento antibiotico nella popolazione è stata di 85 giorni/1000 nati vivi. Tra i fattori di rischio materni, il tampone vagino-rettale (TVR) e l’urinocoltura positiva sono risultati associati al rischio di EOS provata (p=.017, p =.000). I valori di proteina C reattiva (PCR) al T0, T1 e T2 tra i due gruppi sono risultati significativi (p=.000). All’analisi multivariata è stata confermata la significatività delle variabili descritte. (TVR non noto OR=15.1, 95%CI 1.98-115.50, p =.009, urinocoltura positiva OR=30.1, 95%CI 3.6-252.1, p = .002, PCR T0 OR=1.6, 95% CI 1.29-2.07, p = .000.) Conclusioni: L’individuazione precoce di fattori di rischio e la valutazione degli indici di flogosi in neonati sintomatici può ridurre l’OI e la durata della terapia antibiotica in casi di sepsi non confermata. L’uso appropriato degli antibiotici in questa popolazione è particolarmente importante poichè riduce lo sviluppo di germi multiresistenti. Nelle Terapie Intensive Neonatali, i programmi di stewardship antimicrobica dovrebbero guidare la gestione delle sepsi.
Resumo:
La tesi analizza il criterio di responsabilità civile fondato sull'esercizio di attività pericolose (art. 2050 c.c.), proponendone un inquadramento all'interno del campo della responsabilità oggettiva. Viene dunque approfondito, in quest'ottica, il problema del contenuto della prova liberatoria. Anche alla luce del confronto con altri ordinamenti giuridici, poi, l'elaborato si sofferma sulla indefinita nozione di pericolosità e sulle possibili strade per circoscriverla. Nell'ultima parte della tesi, ci si intrattiene sulle interferenze tra responsabilità civile disciplinata a livello comunitario (in particolare quella per danni cagionati da prodotti difettosi) e criterio di imputazione fondato sul pericolo. Tale ampia disamina consente infine di affrontare il problema della regolazione dei rischi di danno implicati dallo sviluppo delle tecniche di Intelligenza artificiale. Lo scopo è quello di contribuire al dibattito che è in corso presso la dottrina e presso le Istituzioni dell'Unione europea, dal punto di osservazione del modello nazionale delle "attività pericolose".