1000 resultados para numeri trascendenti pi greco numero di Nepero Liouville Lindemann
Resumo:
L’obesità ad oggi è considerata un’epidemia globale ed è tutt’ora in rapido aumento insieme a tutte le comorbidità ad essa associate. Il gold standard per il trattamento di questa patologia è la terapia dietetico-comportamentale. Tuttavia, essa frequentemente si rivela non sufficiente nei quadri di obesità severa; in questo caso è possibile valutare la farmacoterapia, seppur sempre accostata alle indicazioni alimentari. Un’altra opzione è la chirurgia bariatrica, ritenuta una delle più efficaci forme di terapia per la cura dell’obesità severa. Molto importante per l’inquadramento clinico del paziente è la rilevazione delle abitudini alimentari, eseguita tramite diversi strumenti, quali l’Indagine Alimentare, il Recall delle 24 ore e il Diario Alimentare. Recentemente sono stati formulati diversi Food Frequency Questionnaires, ovvero questionari compilati direttamente del paziente con l’obiettivo di indagare sul consumo abituale dei principali prodotti alimentari suddivisi in categorie. Obiettivo: l’obiettivo di questo studio è stato quello di valutare l’appropriatezza di un Food Frequency Questionnaire composto da un totale di 7 categorie e 31 prodotti alimentari nella rilevazione delle abitudini di una popolazione di pazienti con diagnosi di obesità. Metodo: sono stati contattati telefonicamente 70 pazienti, suddivisi in due sottogruppi, ai quali sono state fornite istruzioni per la compilazione di un Diario Alimentare di tre giorni e del Food Frequency Questionnaire. Risultati: è stata considerata accettabile una differenza inferiore al 10% tra i valori derivanti dai due strumenti: su un campione totale di 52 pazienti, tale differenza è stata rilevata in 35 soggetti per quanto riguarda l’intake energetico, in 17 pazienti per i glucidi, in 7 partecipanti per l’apporto di proteine e in 13 casi per i lipidi. Conclusioni: i risultati confermano l’ipotesi che il Food Frequency Questionnaire fornisca valutazioni sovrapponibili a quelle derivanti dal Diario Alimentare.
Resumo:
La malattia policistica epatorenale autosomica dominante (ADPKD), patologia genetica ereditaria che coinvolge primariamente il rene, è una condizione cronica, caratterizzata dalla crescita lenta, graduale e progressiva di cisti nei reni, in concomitanza a diverse comorbidità renali ed extrarenali. Colpisce 12,5 milioni di persone di ogni etnia nel mondo e causa di più del 10% di tutte le insufficienze renali croniche terminali (ESRD). Lo studio prende in esame dietoterapia, attività fisica e qualità di vita, tre aspetti di fondamentale importanza nella gestione dei pazienti affetti da ADPKD. L’obiettivo è quello di capire quali sono le evidenze più recenti in materia, approfondire le relazioni tra questi differenti ambiti e come questi possano influenzare la gestione clinica e terapeutica dei pazienti affetti dalla patologia. Per raggiungere questo obiettivo molteplici ricerche sono state svolte interrogando i database di Scopus, Pubmed e Google Scholar. I risultati della ricerca ribadiscono l’importanza del trattamento multidisciplinare nell’ADPKD in cui il ruolo del dietista assume una grande importanza poiché emergono interessanti prospettive riguardo alle potenzialità date dall’adozione e dal mantenimento di specifici regimi alimentari e di uno stile di vita attivo in ADPKD nel contrasto dello sviluppo cistico, il tutto senza mai trascurare la condizione psicologica e sociale del paziente, fattore fondamentale per il mantenimento della compliance sia alla terapia medica che ad una corretta alimentazione e stile di vita.
Resumo:
Le interfacce cervello-macchina (BMIs) permettono di guidare devices esterni utilizzando segnali neurali. Le BMIs rappresentano un’importante tecnologia per tentare di ripristinare funzioni perse in patologie che interrompono il canale di comunicazione tra cervello e corpo, come malattie neurodegenerative o lesioni spinali. Di importanza chiave per il corretto funzionamento di una BCI è la decodifica dei segnali neurali per trasformarli in segnali idonei per guidare devices esterni. Negli anni sono stati implementati diversi tipi di algoritmi. Tra questi gli algoritmi di machine learning imparano a riconoscere i pattern neurali di attivazione mappando con grande efficienza l’input, possibilmente l’attività dei neuroni, con l’output, ad esempio i comandi motori per guidare una possibile protesi. Tra gli algoritmi di machine learning ci si è focalizzati sulle deep neural networks (DNN). Un problema delle DNN è l’elevato tempo di training. Questo infatti prevede il calcolo dei parametri ottimali della rete per minimizzare l’errore di predizione. Per ridurre questo problema si possono utilizzare le reti neurali convolutive (CNN), reti caratterizzate da minori parametri di addestramento rispetto ad altri tipi di DNN con maggiori parametri come le reti neurali ricorrenti (RNN). In questo elaborato è esposto uno studio esplorante l’utilizzo innovativo di CNN per la decodifica dell’attività di neuroni registrati da macaco sveglio mentre svolgeva compiti motori. La CNN risultante ha consentito di ottenere risultati comparabili allo stato dell’arte con un minor numero di parametri addestrabili. Questa caratteristica in futuro potrebbe essere chiave per l’utilizzo di questo tipo di reti all’interno di BMIs grazie ai tempi di calcolo ridotti, consentendo in tempo reale la traduzione di un segnale neurale in segnali per muovere neuroprotesi.
Resumo:
L’Internet of Things (IoT) è un termine utilizzato nel mondo della telecomunicazione che fa riferimento all’estensione di Internet al mondo degli oggetti, che acquisiscono una propria identità, venendo così definiti “intelligenti”. L’uomo in questo ambito avrà sempre meno incidenza sul campo poiché sono le macchine ad interagire tra loro scambiandosi informazioni. Gli ambiti applicativi che comprendono IoT sono innumerevoli ed eterogenei; pertanto, non esiste un'unica soluzione tecnologica che possa coprire qualsiasi scenario. Una delle tecnologie che si prestano bene a svolgere lavori in IoT sono le LoRaWAN. Un punto e una sfida essenziali nell'applicazione della tecnologia LoRaWAN è garantire la massima autonomia dei dispositivi ottenendo il più basso consumo di energia possibile e la ricerca di soluzioni di alimentazione efficienti. L'obiettivo in questo elaborato è quello di realizzare un sistema capace di trasmettere un flusso continuo di informazioni senza l'ausilio e il costante monitoraggio dell'uomo. Viene trattato come controllare dei sensori da remoto e come garantire una migliore autonomia dei dispositivi ottenendo un più basso consumo energetico.
Resumo:
La radioterapia è una terapia medica molto utilizzata in campo oncologico. I diversi tipi di radiazione e di tecniche permettono di trattare, con diversi fini, una vasta gamma di neoplasie. Secondo i dati dell’AIRO, l’Associazione Italiana di Radioterapia e Oncologia clinica, nel 2020 sono stati trattati con la radioterapia circa 100mila pazienti in Italia, che conta 183 centri di radioterapia tra pubblici e privati, cioè circa 3 centri per milione di abitanti. La Società Europea di Radioterapia Oncologica, basandosi sullo studio ESTRO-HERO del 2014, suggerisce come parametro di confronto a livello nazionale o internazionale il numero di apparecchiature di radioterapia per milione di abitanti, e le Direttive Europee ne raccomandano un valore minimo di 7 unità. In questo elaborato, espongo l’evoluzione della radioterapia tramite la presentazione delle sue diverse tipologie, per poi concentrarmi sulla irradiazione corporea totale (Total Body Irradiation – TBI) nel caso studio della leucemia linfoblastica acuta (LLA). Il Capitolo 1 introduce la radioterapia e la sua principale suddivisione in esterna e interna, con i relativi sottogruppi. Viene poi spiegato come si valuta il volume bersaglio e vengono presentati il personale e le fasi del trattamento. Il Capitolo 2 introduce alla leucemia e alla LLA. Viene poi spiegato il trattamento di trapianto e quello di condizionamento. Infine, espongo la tecnica della TBI, le sue prestazioni ed i suoi limiti. Nelle conclusioni e future direzioni, valuto il problema della tossicità ed espongo le principali evoluzioni nell’uso della TBI.
Resumo:
L’Intelligenza Artificiale negli ultimi anni sta plasmando il futuro dell’umanità in quasi tutti i settori. È già il motore principale di diverse tecnologie emergenti come i big data, la robotica e l’IoT e continuerà ad agire come innovatore tecnologico nel futuro prossimo. Le recenti scoperte e migliorie sia nel campo dell’hardware che in quello matematico hanno migliorato l’efficienza e ridotto i tempi di esecuzione dei software. È in questo contesto che sta evolvendo anche il Natural Language Processing (NLP), un ramo dell’Intelligenza Artificiale che studia il modo in cui fornire ai computer l'abilità di comprendere un testo scritto o parlato allo stesso modo in cui lo farebbe un essere umano. Le ambiguità che distinguono la lingua naturale dalle altre rendono ardui gli studi in questo settore. Molti dei recenti sviluppi algoritmici su NLP si basano su tecnologie inventate decenni fa. La ricerca in questo settore è quindi in continua evoluzione. Questa tesi si pone l'obiettivo di sviluppare la logica di una chatbot help-desk per un'azienda privata. Lo scopo è, sottoposta una domanda da parte di un utente, restituire la risposta associata presente in una collezione domande-risposte. Il problema che questa tesi affronta è sviluppare un modello di NLP in grado di comprendere il significato semantico delle domande in input, poiché esse possono essere formulate in molteplici modi, preservando il contenuto semantico a discapito della sintassi. A causa delle ridotte dimensioni del dataset italiano proprietario su cui testare il modello chatbot, sono state eseguite molteplici sperimentazioni su un ulteriore dataset italiano con task affine. Attraverso diversi approcci di addestramento, tra cui apprendimento metrico, sono state raggiunte alte accuratezze sulle più comuni metriche di valutazione, confermando le capacità del modello proposto e sviluppato.
Resumo:
Oggigiorno le aziende si trovano ad operare in mercati aventi caratteristiche comuni; le difficoltà presenti nelle catene del valore sono evidenti: risulta complicato non solo reperire la materia prima per realizzare il prodotto finito, ma anche l’energia necessaria per avviare i processi di trasformazione. Partendo da queste considerazioni, l’incremento dei costi aziendali risulta purtroppo scontato; è quindi necessario ricercare metodi per ridurli e per mantenere invariato il margine di contribuzione sul prodotto finito. Questo elaborato va ad esaminare le attività presenti all’interno del magazzino prodotti finiti di Marazzi Group, azienda leader nella produzione del grès porcellanato, cercando di proporre alcuni miglioramenti applicabili nella quotidianità. Nello specifico, tramite l’applicazione del principio di Pareto, siamo andati a suddividere gli articoli e le locazioni in classi cercando di determinare l’allocazione ottimale per ridurre al minimo le movimentazioni e i relativi sprechi. Una volta determinata la situazione attuale, abbiamo cercato di creare uno strumento che permettesse di monitorare in qualsiasi istante la gestione da parte del responsabile. Inoltre, considerando la saturazione delle varie locazioni, siamo andati a creare un file in grado di indirizzare il materiale in ingresso nella stiva più adeguata. L’introduzione di questi miglioramenti ha portato benefici sia da un punto di vista quantitativo sia qualitativo. A livello quantitativo è stato possibile osservare una riduzione dei costi collegati al personale, al carburante e alla manutenzione dei carrelli. D’altro canto, a livello qualitativo abbiamo riscontrato una riduzione nei tempi di preparazione e di spedizione, aumentando così la capacità produttiva del magazzino.
Resumo:
Questa tesi ha l’obbiettivo di studiare e seguire la creazione un modello matematico che possa risolvere un problema logistico di Hub Facility Location reale, per l’individuazione del posizionamento ottimale di uno o più depositi all’interno di una rete distributiva europea e per l’assegnazione dei rispettivi clienti. Si fa riferimento alla progettazione della rete logistica per rispondere alle necessità del cliente, relativamente ad una domanda multiprodotto. Questo problema è stato studiato a partire da un caso reale aziendale per la valutazione della convenienza nella sostituzione di quattro magazzini locali con uno/due hub logistici che possano servire tutte le aree. Il modello distributivo può anche essere adoperato per valutare l’effetto della variazione, dal punto di vista economico, del servizio di trasporto e di tariffario. La determinazione della posizione ottimale e del numero dei magazzini avviene tramite un modello matematico che considera al proprio interno sia costi fissi relativi alla gestione dei magazzini (quindi costo di stabilimento, personale e giacenza) e sia i costi relativi al trasporto e alla spedizione dei prodotti sulle diverse aree geografiche. In particolare, la formulazione matematica si fonda su un modello Programmazione Lineare Intera, risolto in tempi molto brevi attraverso un software di ottimizzazione, nonostante la grande mole di dati in input del problema. In particolare, si ha lo studio per l’integrazione di tariffari di trasporto diversi e delle economie di scala per dare consistenza ad un modello teorico. Inoltre, per ricercare la migliore soluzione di quelle ottenute sono poi emersi altri fattori oltre a quello economico, ad esempio il tempo di trasporto (transit-time) che è un fattore chiave per ottenere la soddisfazione e la fedeltà del cliente e attitudine dell’area geografica ad accogliere una piattaforma logistica, con un occhio sugli sviluppi futuri.
Resumo:
Il processo di sviluppo di un’applicazione comprende più fasi, ognuna strettamente correlata alle altre. Una delle fasi di questo processo è il rilascio del software, che consiste nel rendere disponibile agli utenti l’applicazione caricandone l’eseguibile su un server, sul quale verrà poi eseguita. Per un’azienda di sviluppo software è particolarmente importante automatizzare e standardizzare il processo di rilascio del software, allo scopo di renderlo più veloce e di diminuire il tempo che intercorre fra una modifica e il momento in cui questa viene effettivamente resa disponibile per gli utenti, ottimizzando infine l’impegno degli sviluppatori. La presente tesi descrive l’implementazione di un sistema di Continuous Integration e Continuous Deliveliry scalabile su una software house con più di 900 dipendenti suddivisi in decine di team, ognuno dei quali ha in carico lo sviluppo di vari software. Le applicazioni realizzate dai team sono generalmente microservizi in esecuzione all’interno di container su piattaforma Kubernetes. Sono state quindi valutate le varie alternative per la realizzazione di questo sistema, analizzandone pro e contro, scegliendo infine GitLab per la parte di Continuous Integration e ArgoCD per la parte di Continuous Deployment. Nei vari capitoli viene quindi analizzata l’infrastruttura esistente e vengono illustrati i vantaggi e svantaggi delle varie soluzioni considerate. Per i due software selezionati viene invece descritto il lavoro svolto, con dettagli sul funzionamento del sistema e la configurazione necessaria per il corretto funzionamento dell’intero processo. La soluzione realizzata effettua build, test, code validation e deploy delle applicazioni seguendo un pattern GitOps, con un repository git contenente la configurazione attuale delle applicazioni, permettendo rollback in caso di problematiche e garantendo un alto livello di sicurezza attraverso il mantenimento dello storico della configurazione e della versione delle applicazioni.
Resumo:
Il presente elaborato descrive il percorso effettuato sulla macchina XTREMA, prodotta dalla divisione Life del gruppo IMA. Il progetto ha come fine il miglioramento delle prestazioni della macchina, quantificate principalmente in termini di accuratezza del prodotto dosato e di prodotti processati in un arco di tempo. Il Capitolo 1 fornisce un iniziale studio delle caratteristiche e del funzionamento della macchina, con successiva focalizzazione sul sistema di controllo peso. Con l’obiettivo di definire le prestazioni del sistema di controllo peso, nel Capitolo 2 è impostata una campagna sperimentale di test che permette di studiare lo stato attuale del sistema, identificando l’influenza dei vari parametri di funzionamento sulle perfomances, portando alla luce le criticità della macchina. Viene quindi analizzato il gruppo, individuando le cause delle problematiche e identificando su quali campi agire per incrementare velocità di funzionamento e accuratezza del sistema. All’interno del Capitolo 3 entrambi i componenti del sistema di controllo peso, discensore e gruppo di bilance, sono quindi riprogettati per risolvere le criticità rilevate. Nel Capitolo 4 viene affrontato il montaggio del prototipo in una macchina dedicata alle prove, dove viene impostata una nuova campagna di test con l’obiettivo collaudare il sistema e validarne le prestazioni. Confrontando le prove si dimostrerà che il nuovo prototipo, oltre ad aumentare il numero di flaconi pesati al minuto, permette di risolvere le problematiche del precedente sistema, consentendo di ottenere un’accuratezza del controllo peso superiore a quanto riscontrato nella campagna iniziale di prove svolta inizialmente.
Resumo:
I materiali piezoelettrici sono una classe di materiali che hanno la capacità di convertire energia elettrica in meccanica, e viceversa. I piezoelettrici si suddividono in tre classi: naturarli, ceramici e polimerici. Quest'ultimi, seppur mostrando coefficienti piezoelettrici non elevati rispetto ai primi due, presentano grandi vantaggi in termini di proprietà meccaniche, essendo per esempio molto flessibili, grazie anche all'ausilio delle nanotecnologie. In questo elaborato si è utilizzato il PVDF-TrFE, un materiale polimerico, prodotto sotto forma di nanofibre tramite il processo di elettrofilatura. La struttura nanofibrosa incrementa le proprietà piezoelettriche, che dipendono dalla superficie totale del materiale, poiché massimizza il rapporto superficie/volume. Lo scopo dell'elaborato è quello di ottimizzare il processo di polarizzazione, e quindi incrementare la risposta elettromeccanica dei provini a seguito di una sollecitazione, applicando una tecnica innovativa. Questa prevede l'applicazione di un campo elettrico AC sinusoidale, partendo da un valor nullo fino a un valore massimo di regime, continuando successivamente con un campo in DC avente la stessa apiezza massima. Questa tecnica è stata applicata a differenti provini di PVDF-TrFE, variando alcuni parametri come frequenza, numero di cicli e temperatura. I valori misurati sono stati suddivisi in diversi grafici al variare della temperatura, mostrando notevoli miglioramenti rispetto alle tecniche già note di polarizzazione. È stata inoltre mostrata la struttura in scala nanometrica delle fibre, valutando così l'effetto della temperatura di esercizio sui provini durante il processo di polarizzazione.
Resumo:
Una importante problematica di risonanza mondiale è lo sviluppo di fenomeni sempre più frequenti di siccità e di scarsità idrica. Il presente elaborato intende illustrare come tale difficoltà stia colpendo il pianeta, con un focus sull’Italia e poi sull’Emilia-Romagna. Le cause scatenanti sono riconducibili all’aumento della popolazione, al depauperamento dei corpi idrici, ma soprattutto agli impatti del cambiamento climatico: incremento delle temperature, calo delle precipitazioni e quindi riduzione della ricarica delle fonti di approvvigionamento. Queste devono soddisfare un’intensa domanda da parte delle attività antropiche nonostante il loro stato sia sempre più preoccupante. In questo scenario è indispensabile adottare nuovi metodi per la gestione sostenibile delle riserve idriche, e il monitoraggio si rivela uno strumento utile in quanto fornisce informazioni dettagliate e aggiornate sullo stato quantitativo delle fonti. In particolare, il presente elaborato si focalizza sul progetto Resilient Dashboard, ideato in ambito regionale dalla collaborazione di più strutture operative di Hera S.p.A. Si tratta di uno strumento per l’analisi e il preannuncio di crisi idriche, basato sul monitoraggio di indicatori idrologici e meteorologici. Questo può essere di supporto per i gestori delle risorse, i quali possono individuare e poi intervenire sulle zone in cui si verifica maggiore criticità. Vengono dunque esaminati i processi che sono risultati necessari alla definizione del progetto, a partire dalla selezione degli elementi di interesse e dalla predisposizione delle elaborazioni da compiere su ciascuna tipologia di dato, fino allo sviluppo del criterio di assegnazione dei colori alle fonti e alle aree, per la segnalazione degli allarmi. Il progetto è ancora in corso di realizzazione, ma il suo obiettivo finale consiste nel produrre una piattaforma digitale di facile utilizzo che fornisca informazioni sullo stato delle fonti, in relazione alla domanda di risorsa.
Resumo:
Negli ultimi decenni, la filiera ittica sta subendo una grande espansione grazie al miglioramento delle tecniche di pesca, allevamento, conservazione, e trasformazione. Di pari passo, però, si assiste ad un accumulo di scarti e sottoprodotti per i quali è necessario trovare soluzioni sostenibili al fine di ridurre al minimo il loro impatto sull’ambiente e sull’economia. Risulta pertanto indispensabile trovare tecnologie che possano valorizzare le componenti ancora presenti in questi scarti, come ad esempio l'utilizzo di processi biotecnologici che sfruttano microrganismi selezionati. Questo progetto di tesi si è focalizzato sull’utilizzo di lieviti e batteri, con attività proteolitica e lipolitica, per l’estrazione di composti funzionali tramite fermentazione da scarti di pesce. Gli idrolizzati sono stati caratterizzati in termini di contenuto in peptidi, attività antiossidante e profilo in composti volatili. I ceppi di Yarrowia lipolytica testati sono stati quelli che hanno prodotto il più alto quantitativo di peptidi, la maggiore attività antiossidante e la produzione di alcoli (isoamilico e feniletilico) o acidi (acetico, butirrico e isovalerico) in base all'assenza o presenza di glucosio nel mezzo di crescita.
Resumo:
Il presente lavoro si concentra sugli scostamenti di tipo morfosintattico tra un discorso orale e formale-istituzionale tenuto in italiano e le rispettive rese, in interpretazione simultanea, verso il francese e il tedesco. Alla base dell’osservazione condotta vi è la volontà di comprendere fino a che punto un interprete professionista si discosti dalla struttura morfosintattica del testo originale e quali strategie attui, partendo dall'ipotesi che nei punti di maggiore marcatezza morfosintattica l'interprete si allontani maggiormente dalla struttura dell'originale. Dapprima si discutono alcune delle caratteristiche dell’italiano contemporaneo. In seguito, viene proposta un’osservazione teorica dei punti di maggiore vicinanza o lontananza tra la morfosintassi dell’italiano e delle due lingue straniere considerate. Vengono poi affrontate le principali difficoltà in interpretazione simultanea (IS), passando in rassegna le più frequenti strategie di risposta a tali difficoltà. Segue un’illustrazione della metodologia seguita al fine di reperire e raccogliere i discorsi pronunciati nelle Commissioni del Parlamento europeo per la costituzione di un corpus parallelo trilingue su SketchEngine. Infine, vengono presentati i risultati emersi dall'osservazione parallela basata sul corpus, in un confronto in cui vengono individuati i punti di comunanza e di divergenza tra l’originale nella lingua di partenza e le rese nelle lingue di arrivo in corrispondenza di alcuni fenomeni morfosintattici scelti.
Resumo:
L'obiettivo del presente elaborato, che si concentra sul tema della localizzazione dei videogiochi, è quello di esaminare ed evidenziare le caratteristiche chiave, le peculiarità e le principali sfide di questa pratica. L'industria dei videogiochi è estremamente vasta e in continua crescita. La localizzazione in questo campo assume una grande importanza, in quanto ha il ruolo di preservare al meglio l'esperienza di gioco e di permettere alle aziende di posizionare un videogioco in nuovi mercati. È quindi facile intuire quanto il processo di localizzazione di un prodotto possa essere un fattore determinante per il suo successo. Al fine di indagare gli aspetti più rilevanti di questa pratica, ho condotto alcune interviste ad alcuni localizzatori professionisti, per ottenere una prospettiva autentica e significativa in merito a questo tema. Dopo una breve introduzione all'industria videoludica e alla localizzazione dei videogiochi, ho presentato e commentato le risposte di tre professionisti selezionati ad alcune domande che ho formulato e che riguardano questo campo. Gli argomenti che sono stati affrontati erano di varia natura e riguardavano tematiche differenti, così da coprire quanti più aspetti possibili di questo settore. Nello specifico, ho voluto indagare temi quali la formazione dei localizzatori, gli strumenti e le strategie adottate per questo tipo di lavoro, soprattutto nell'affrontare sfide o difficoltà specifiche, nonché i molteplici aspetti di questo settore e le aspettative sul suo futuro, sulla base delle opinioni e delle esperienze degli intervistati. Lo scopo era quello di individuare aspetti interessanti e di fornire una visione pratica di questa disciplina, nonché di fare luce su un campo ancora poco considerato, soprattutto a livello accademico.