1000 resultados para funzioni polinomiali potenza di un primo analisi statistica python interdisciplinarietà
Resumo:
Scopo dell'elaborato è stato la produzione di un materiale bio-composito formato da PLA ed un rinforzo di origine naturale derivante dal settore agricolo, nell'ottica di diminuire i costi dei manufatti costituiti da tale materiale, riducendo il contenuto di PLA, e rivalorizzare lo scarto di farine in applicazioni di stampa 3D. Inizialmente le farine sono state studiate mediante analisi spettroscopiche (FT-ATR), osservazioni al microscopio ottico e analisi TGA. Dopodiché sono stati prodotti filamenti per stampa 3D di materiale composito al 10% e caratterizzati termicamente (DSC, TGA, Cp) e meccanicamente (DMA). Successivamente alla stampa 3D di questi filamenti, sono stati analizzati comportamenti termici (CTE, DSC) e meccanici (prove di trazione, DMA) dei provini stampati. Si è infine valutata l'influenza del trattamento termico di ricottura sui provini stampati mediante analisi DSC e DMA.
Resumo:
Ultimamente si stanno sviluppando tecnologie per rendere più efficiente la virtualizzazione a livello di sistema operativo, tra cui si cita la suite Docker, che permette di gestire processi come se fossero macchine virtuali. Inoltre i meccanismi di clustering, come Kubernetes, permettono di collegare macchine multiple, farle comunicare tra loro e renderle assimilabili ad un server monolitico per l'utente esterno. Il connubio tra virtualizzazione a livello di sistema operativo e clustering permette di costruire server potenti quanto quelli monolitici ma più economici e possono adattarsi meglio alle richieste esterne. Data l'enorme mole di dati e di potenza di calcolo necessaria per gestire le comunicazioni e le interazioni tra utenti e servizi web, molte imprese non possono permettersi investimenti su un server proprietario e la sua manutenzione, perciò affittano le risorse necessarie che costituiscono il cosiddetto "cloud", cioè l'insieme di server che le aziende mettono a disposizione dei propri clienti. Il trasferimento dei servizi da macchina fisica a cloud ha modificato la visione che si ha dei servizi stessi, infatti non sono più visti come software monolitici ma come microservizi che interagiscono tra di loro. L'infrastruttura di comunicazione che permette ai microservizi di comunicare è chiamata service mesh e la sua suddivisione richiama la tecnologia SDN. È stato studiato il comportamento del software di service mesh Istio installato in un cluster Kubernetes. Sono state raccolte metriche su memoria occupata, CPU utilizzata, pacchetti trasmessi ed eventuali errori e infine latenza per confrontarle a quelle ottenute da un cluster su cui non è stato installato Istio. Lo studio dimostra che, in un cluster rivolto all'uso in produzione, la service mesh offerta da Istio fornisce molti strumenti per il controllo della rete a scapito di una richiesta leggermente più alta di risorse hardware.
Resumo:
L'abbandono del cliente, ossia il customer churn, si riferisce a quando un cliente cessa il suo rapporto con l'azienda. In genere, le aziende considerano un cliente come perso quando un determinato periodo di tempo è trascorso dall'ultima interazione del cliente con i servizi dell'azienda. La riduzione del tasso di abbandono è quindi un obiettivo di business chiave per ogni attività. Per riuscire a trattenere i clienti che stanno per abbandonare l'azienda, è necessario: prevedere in anticipo quali clienti abbandoneranno; sapere quali azioni di marketing avranno maggiore impatto sulla fidelizzazione di ogni particolare cliente. L'obiettivo della tesi è lo studio e l'implementazione di un sistema di previsione dell'abbandono dei clienti in una catena di palestre: il sistema è realizzato per conto di Technogym, azienda leader nel mercato del fitness. Technogym offre già un servizio di previsione del rischio di abbandono basato su regole statiche. Tale servizio offre risultati accettabili ma è un sistema che non si adatta automaticamente al variare delle caratteristiche dei clienti nel tempo. Con questa tesi si sono sfruttate le potenzialità offerte dalle tecnologie di apprendimento automatico, per cercare di far fronte ai limiti del sistema storicamente utilizzato dall'azienda. Il lavoro di tesi ha previsto tre macro-fasi: la prima fase è la comprensione e l'analisi del sistema storico, con lo scopo di capire la struttura dei dati, di migliorarne la qualità e di approfondirne tramite analisi statistiche il contenuto informativo in relazione alle features definite dagli algoritmi di apprendimento automatico. La seconda fase ha previsto lo studio, la definizione e la realizzazione di due modelli di ML basati sulle stesse features ma utilizzando due tecnologie differenti: Random Forest Classifier e il servizio AutoML Tables di Google. La terza fase si è concentrata su una valutazione comparativa delle performance dei modelli di ML rispetto al sistema storico.
Resumo:
L’utilizzo di biomasse come fonte di chemicals nell’industria chimica mira a rendere più sostenibili i processi industriali e i materiali prodotti. In particolare, l’acido crotonico (AC), impiegato come building block nella produzione di vernici e rivestimenti, è prodotto tradizionalmente da fonti fossili. La domanda globale ammonta a circa 1000 tonnellate ed è in continuo aumento, rendendo prioritaria l’individuazione di una sintesi alternativa e sostenibile. In questo studio, l’analisi del ciclo di vita (life cycle assessment, LCA) è stata applicata per stimare la carbon footprint e la domanda cumulativa di energia relative ad una sintesi innovativa dell’AC, basata sulla conversione termica di un precursore derivato da biomasse di scarto. In particolare, il processo prevede l’applicazione di un trattamento termochimico a poli-idrossi-butirrati (PHB) prodotti da colture batteriche miste a valle del processo B-PLAS. Sono stati modellati due scenari comparativi con l’obiettivo di (i) valutare la sostenibilità ambientale della sintesi alternativa nella tecnologia B-PLAS, considerando una condizione “base” di processo (con un contenuto di PHB pari al 30% nello slurry in ingresso al processo) e una “ottimale” (con un contenuto di PHB pari al 60%); (ii) confrontare gli impatti ambientali del processo di sintesi alternativo per entrambi gli scenari con quelli di sintesi dell’AC da fonti fossili. I risultati dell’LCA mostrano che nel processo B-PLAS, giunti alla produzione dello slurry (fango) arricchito in PHB, si possono avere due strade equivalenti estraendo i PHB o convertendoli in AC con una lieve preferenza per il processo estrattivo (0.71MJ/kgslurry vs 1.11MJ/kgslurry) nella condizione di base e (0.69MJ/kgslurry vs 1.17MJ/kgslurry) in quella ottimale. Estendendo la comparazione alla produzione dell’AC da fonti fossili, quello bioderivato comporta un impatto ambientale ampiamente inferiore, stimato in 159.6 MJ/kgAC e 204.6 MJ/kgAC per gli scenari “base” e “ottimale”.
Resumo:
L’Intelligenza Artificiale è un campo dell’informatica che da tempo si afferma come valido strumento alternativo per la risoluzione di problemi tipicamente riservati esclusivamente all’intelletto umano. Se in principio gli algoritmi sfruttati nel campo dell’Intelligenza Artificiale erano basati su insiemi di regole codificate da esperti del dominio di applicazione dell’algoritmo, con l’arrivo del secondo millennio questo approccio è stato superato in favore di algoritmi che sfruttano grandi quantità di dati ed elevata potenza di calcolo per fare scelte ottimali. Un esempio di questo approccio può essere Deep Blue, che nel 1996, anche grazie ad un database di 4mila aperture e un’architettura che permetteva 11 GFLOPS fu la prima macchina a vincere una partita a scacchi contro un grande maestro. Col passare degli anni, l’aumentare degli investimenti e della ricerca, questo approccio ha portato alla strutturazione del campo dell’Apprendimento Automatico (Machine Learning, in inglese) dal quale sono scaturiti numerosi avanzamenti che hanno influenzato una moltitudine di ambiti: dall’agricoltura di precisione alla traduzione automatica, dal riconoscimento di frodi con carte di credito alla farmaceutica, dal marketing alla visione artificiale e molti altri, inclusa la medicina. Questo lavoro si concentra su proprio questioni relative al campo della medicina. In particolare si occupa di provare a riconoscere se le stenosi coronariche di un paziente sono gravi o meno attraverso l’uso di angiografie coronariche invasive e tomografie coronariche angiografiche; in maniera da diminuire delle angiografie coronariche invasive effettuate su pazienti che non ne hanno davvero bisogno.
Resumo:
Per determinare lo stato di un satellite ad ogni istante è necessario un propagatore orbitale, cioè un algoritmo che, partendo da condizioni iniziali note, calcola la traiettoria di un corpo in un intervallo di tempo arbitrario. L’orbita ottenuta è tuttavia soggetta ad errori numerici (errori di propagazione) ed incertezze. Queste ultime derivano da condizioni iniziali non precise, in quanto ricavate da osservazioni, soggette ad errori di misurazione, o ipotesi sui parametri dell’orbita e del corpo. Per questo motivo è importante utilizzare il propagatore anche per verificare l’evoluzione di tali incertezze nel tempo tramite un processo noto come analisi della covarianza. Questo processo permette di valutare l’entità dell’incertezza calcolandone la variazione rispetto allo stato iniziale a cui è generata e la rispondenza ai requisiti di missione. Lo scopo della tesi è l’incremento di precisione del propagatore orbitale esistente e lo sviluppo di strumenti per il supporto della missione LICIACube (Light Italian Cubesat for Imaging of Asteroids). In particolare, saranno implementati effetti secondari nel modello di propagazione ed uno strumento per la propagazione e conversione della rappresentazione di incertezze delle effemeridi. Questo permetterà la valutazione della precisione dell’orbita di Didymos e di LICIACube, dal suo rilascio fino al flyby. Per l’esportazione della traiettoria calcolata viene presentata una funzione che, tramite interpolazione, rappresenti l’orbita generata utilizzando un limitato spazio di memoria.
Resumo:
I crostacei sono da sempre considerati prodotti ittici d'elevato valore economico (FAO 2020) soggetti ad un'alta deperibilità a causa dello sviluppo di colorazioni brune nella zona cefalotoracica ed addominale del carapace (Goncalves et al. 2016). Nell'ottica di una riduzione degli sprechi alimentari e vista la crescente sensibilità dei consumatori verso alimenti clean-lable, questo studio valuta l'effetto dell'acqua attivata al plasma (PAW) nel ritardare la comparsa di melanosi su mazzancolle (P. kerathurus) e gamberi rosa (P. longirostris), confrontandone l'effetto con i più comuni trattamenti (solforosa e 4-esilresorcinolo). La valutazione della melanosi si è svolta per mezzo di un sistema di visione computerizzata (CVS) e successiva analisi delle immagini digitalizzate. Dalle prove sulle mazzancolle è emerso un effetto protettivo dell'acqua attivata al plasma per i primi 5 giorni di conservazione, mentre per i gamberi rosa non si sono ottenute differenze significative (p<0.05) rispetto ai campioni trattati con sola acqua. I migliori risultati nel contenimento della melanosi si sono ottenuti dai campionitrattati con 4-esilresorcionolo, tuttavia si è anche sviluppata una colorazione rossa sul carapace giudicabile, secondo altri studi, come sgradevole (Pilar Montero et al. 2001).
Resumo:
L’obbiettivo di questo elaborato di tesi è quello di eseguire uno studio di fattibilità per l’applicazione della tecnologia dei robot a cavi in ambito navale e della Difesa. Il lavoro è stato svolto presso l’azienda Calzoni di Calderara di Reno. In particolare, si è analizzata la possibilità di sostituire le tradizionali strutture rigide impiegate nella movimentazione di carichi con un sistema robotico azionato da cavi che fosse in grado di garantire caratteristiche quali modularità e una più facile riconfigurabilità. Sono state prese in considerazione diverse architetture di robot a cavi. Innanzitutto, si è verificato per ognuna il rispetto delle specifiche di progetto assegnate dall’azienda. Si è quindi condotta un’analisi cineto-statica sulle architetture potenzialmente idonee in modo tale da determinare quale fosse quella più prestazionale. Definita la migliore configurazione, se ne è sviluppato un primo concept preliminare.
Resumo:
Le fratture fragili del collo del femore rappresentano un grave problema sociosanitario, in via di aggravamento a causa dell’aumento dell’età media e dell’aspettativa di vita. Il verificarsi di tale evento dipende da più fattori: la frequenza con la quale si verificano cadute, la gravità delle stesse e lo stato di salute del paziente, in particolare la resistenza meccanica delle sue ossa e il suo grado di controllo neuro-motorio. Negli ultimi anni gli strumenti di analisi e stima della resistenza meccanica del femore basati su modelli agli elementi finiti hanno raggiunto un tale livello di maturità da prospettarne l’utilizzo nel contesto di “in silico trials”, ovvero la simulazione virtuale di sperimentazioni cliniche e precliniche. In questo studio si è sviluppato un modello stocastico in grado di simulare la sperimentazione clinica di nuovi trattamenti per l’osteoporosi. Questo comprende più sotto modelli in grado di simulare il processo di invecchiamento, determinare stocasticamente le cadute che si verificano in una certa popolazione in un determinato orizzonte temporale e l’entità delle forze che agiscono sul grande trocantere. In particolare, le cadute sono state generate a partire da una distribuzione di Poisson e le forze sono state stimate attraverso un modello stocastico multiscala. La tesi si è concentrata su aspetti metodologici e procedurali, nell’ottica di sviluppare un modello che permettesse agevolmente la variazione dei parametri associati alla caduta, dotato di buone robustezza ed applicabilità. È stato verificato come la discretizzazione nel dominio del tempo del rimodellamento osseo non influisca significativamente nella determinazione delle fratture; inoltre, il modello si è dimostrato capace di fornire risultati stabili in modo computazionalmente efficiente. La validazione dei risultati del modello, invece, ha dato risultati non soddisfacenti, per cui sarà necessario procedere in futuro a un’attenta calibrazione dei parametri del modello.
Resumo:
Il lavoro svolto in questa tesi si colloca nel contesto della riqualificazione di una struttura in muratura portante esistente tramite cappotto sismico. Ha come oggetto l’analisi della sua risposta meccanica, con particolare attenzione alla modellazione numerica. L’immobile oggetto di studio è edificato nella zona costiera del comune di San Benedetto del Tronto (AP). La prima fase di analisi consiste in un approfondito percorso di conoscenza della struttura, che riguarda un attento studio storico-critico dell’evoluzione strutturale seguito, poi, da un’indagine conoscitiva della geometria della struttura e delle caratteristiche meccaniche dei materiali costituenti. Per migliorare il comportamento dell’edificio sotto carichi sismici, si sceglie di intervenire tramite la realizzazione di un’epidermide sismo-resistente, che deve essere correttamente modellata congiuntamente alla muratura portante. Viene proposta una prima modellazione semplificata nella quale le pareti del cappotto vengono implementate mediante l’utilizzo di elementi bidimensionali, mentre la muratura esistente viene considerata solamente come massa sismica. Nella seconda strategia di modellazione, seppure si mantenga la stessa impostazione per la schematizzazione del cappotto sismico, si avanza l’ipotesi di discretizzare la struttura esistente mediante il metodo a telaio equivalente, per valutare così la ripartizione delle azioni sismiche tra cappotto e muratura. Vengono eseguite tutte le verifiche necessarie per la valutazione di fattibilità dell’opera, esaminando anche i livelli di sicurezza raggiunti per lo stato di progetto. Con entrambe le strategie si raggiunge un’ottima riqualificazione dell’immobile.
Resumo:
La realtà aumentata (AR) è una nuova tecnologia adottata in chirurgia prostatica con l'obiettivo di migliorare la conservazione dei fasci neurovascolari (NVB) ed evitare i margini chirurgici positivi (PSM). Abbiamo arruolato prospetticamente pazienti con diagnosi di cancro alla prostata (PCa) sul base di biopsia di fusione mirata con mpMRI positiva. Prima dell'intervento, i pazienti arruolati sono stati indirizzati a sottoporsi a ricostruzione del modello virtuale 3D basato su mpMRI preoperatoria immagini. Infine, il chirurgo ha eseguito la RARP con l'ausilio del modello 3D proiettato in AR all'interno della console robotica (RARP guidata AR-3D). I pazienti sottoposti a AR RARP sono stati confrontati con quelli sottoposti a "RARP standard" nello stesso periodo. Nel complesso, i tassi di PSM erano comparabili tra i due gruppi; I PSM a livello della lesione indice erano significativamente più bassi nei pazienti riferiti al gruppo AR-3D (5%) rispetto a quelli nel gruppo di controllo (20%; p = 0,01). La nuova tecnica di guida AR-3D per l'analisi IFS può consentono di ridurre i PSM a livello della lesione dell'indice
Resumo:
I pazienti affetti da patologie oncologiche avanzate hanno un'esperienza di sintomi multipli spesso concomitanti tra loro. Lo scopo di questo progetto è quello di valutare come, nel contesto di un’ambulatorio integrato di Radioterapia e Cure Palliative (rep), sia possibile descrivere e quantificare i sintomi riportati dal paziente attraverso uno strumento di analisi convalidato, nello specifico l’Edmonton Symptom Assessment System (ESAS) al fine di costruire una proposta terapeutica ottimizzata per il singolo paziente. Da aprile 2016 ad aprile 2020, sono stati analizzati gli accessi al rep per un totale di 519 accessi, quindi abbiamo selezionato solo le visite dei pazienti che avevano completato totalmente lo strumento ESAS per la valutazione dei sintomi. La popolazione in studio era quindi composta da 212 pazienti, di questi 120 erano uomini, 92 erano donne, l'età media era di 72 anni, del totale il 36% era stato sottoposto a radioterapia. I principali risultati ottenuti dall'analisi dei dati relativi alla popolazione in studio sono stati i seguenti: 1) il 25% dei pazienti muore entro 2,2 mesi, il 60% entro 6 mesi; 2) la popolazione maschile ha un rischio di morte più elevato rispetto alla popolazione femminile; 3) Esiste una chiara differenza negli indici di correlazione tra la popolazione femminile e quella maschile 4) I principali sintomi correlati sono: dolore, mancanza di appetito, ansia, sonnolenza; 5) Il sintomo del dolore non è associato ad un aumento del rischio di morte, mentre la mancanza di appetito e sonnolenza sono associati ad un aumento del rischio di morte. In conclusione, i dati a nostra disposizione hanno dimostrato che un'analisi approfondita dei sintomi attraverso lo strumento ESAS è fattibile e necessaria portando informazioni fondamentali per una gestione ottimale del paziente, dandoci la possibilità di muoverci verso l'opportunità di trattamenti sempre più personalizzati e individualizzati in base alle caratteristiche dei singoli pazienti.
Resumo:
Negli ultimi anni, il natural language processing ha subito una forte evoluzione, principalmente dettata dai paralleli avanzamenti nell’area del deep-learning. Con dimensioni architetturali in crescita esponenziale e corpora di addestramento sempre più comprensivi, i modelli neurali sono attualmente in grado di generare testo in maniera indistinguibile da quello umano. Tuttavia, a predizioni accurate su task complessi, si contrappongono metriche frequentemente arretrate, non capaci di cogliere le sfumature semantiche o le dimensioni di valutazione richieste. Tale divario motiva ancora oggi l’adozione di una valutazione umana come metodologia standard, ma la natura pervasiva del testo sul Web rende evidente il bisogno di sistemi automatici, scalabili, ed efficienti sia sul piano dei tempi che dei costi. In questa tesi si propone un’analisi delle principali metriche allo stato dell’arte per la valutazione di modelli pre-addestrati, partendo da quelle più popolari come Rouge fino ad arrivare a quelle che a loro volta sfruttano modelli per valutare il testo. Inoltre, si introduce una nuova libreria – denominata Blanche– finalizzata a raccogliere in un unico ambiente le implementazioni dei principali contributi oggi disponibili, agevolando il loro utilizzo da parte di sviluppatori e ricercatori. Infine, si applica Blanche per una valutazione ad ampio spettro dei risultati generativi ottenuti all’interno di un reale caso di studio, incentrato sulla verbalizzazione di eventi biomedici espressi nella letteratura scientifica. Una particolare attenzione è rivolta alla gestione dell’astrattività, un aspetto sempre più cruciale e sfidante sul piano valutativo.
Resumo:
L'attività di tesi svolta presso l'azienda VRM spa è stata focalizzata sullo studio e sull’implementazione di un sistema di controllo elettronico per le sospensioni di un motociclo. Con questo obiettivo, sono state affrontate le fasi di analisi del sistema sospensioni della moto Benelli 752S, della modellazione multibody del veicolo e della modellazione matematica delle strategie Anti-Dive e Anti-Squat. Tali strategie di controllo sono volte a limitare rispettivamente la velocità di affondamento della forcella, in fase di frenata, e lo squat della moto sulla ruota posteriore, in accelerazione. Le considerazioni teoriche, alla base di questo studio, sono state supportate da una serie di simulazioni effettuate mediante il software Simulink di Matlab, che ha consentito di rappresentare il comportamento dinamico del sistema. A completamento della ricerca sopra citata, sono state condotte attività sperimentali volte a riprodurre le condizioni in cui le strategie di controllo vengono messe in atto e a validare la risposta ottenuta dal modello Simulink nei medesimi scenari operativi. Queste verifiche hanno dimostrato l'adeguatezza delle variabili individuate come input del controllo e la corrispondenza tra il comportamento del veicolo nei test su strada e i risultati ottenuti dal modello.
Resumo:
L'obiettivo di ciascuna azienda privata, piccola o grande che sia, è quello di ottenere utili attraverso la commercializzazione di beni o servizi. Per raggiungere ciò, la base da cui si parte è sempre una corretta organizzazione della struttura e dei processi aziendali. Questi ultimi, per poter raggiungere i risultati attesi, hanno bisogno costantemente di informazioni. All'interno di un'impresa la parte che si occupa della gestione di informazioni e processi viene chiamata Sistema Informativo (SI). Questo progetto di tesi nasce dall'esigenza di un'azienda privata in ambito utility di analizzare il proprio Sistema Informativo con il duplice scopo di effettuare una diagnosi dell'attuale e progettare una possibile soluzione ottimale. Andando nello specifico, il progetto è stato suddiviso in due parti: la prima comprende tutta la fase di analisi del SI con la relativa diagnosi, mentre la seconda, ben più verticale, tratta la progettazione e prototipazione di un Data Mart per la gestione delle informazioni all'interno dell'azienda.