649 resultados para numeri trascendenti pi greco numero di Nepero Liouville Lindemann


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Raytracing è una delle tecniche più utilizzate per generare immagini fotorealistiche. Introdotto nel mondo del rendering da più di 40 anni, col tempo si è evoluto, e ad oggi è considerato la tecnica standard in industrie come VFX e film d'animazione. Il problema del Raytracing risiede nel fatto che per essere applicato, bisogna effettuare dei test d'intersezione, raggio-primitiva, con tutti gli oggetti presenti nella scena da renderizzare. Sebbene queste operazioni siano tutto sommato semplici, tipicamente il numero degli oggetti su cui vanno effettuate è talmente elevato che l'applicazione di questa tecnica diventa impraticabile. Per questo si è pensato di raggruppare le primitive in speciali strutture dati chiamate Strutture di accelerazione spaziale. Esse hanno il compito di ridurre il numero di test da effettuare, abbassando il costo asintotico della ricerca da lineare a sub-lineare (o logaritmico) nel numero di primitive. Nel corso degli anni sono state introdotte diverse strutture di accelerazione spaziale per il Raytracing, ognuna con le sue peculiarità, i suoi vantaggi ed i suoi svantaggi. In questa tesi verranno studiate alcune delle principali strutture di accelerazione spaziale (BVH, Uniform Grid ed Octree), concentrandosi in particolare sulle tecniche di costruzione ed attraversamento di ognuna di esse. Per farlo, verrà anche trattato tutto il background necessario sul Raytracing e Le strutture di accelerazione verranno anche implementate e messe a confronto su diverse scene. Il confronto permetterà di evidenziare come ognuna di esse porti dei vantaggi, e che non esiste una struttura di accelerazione assolutamente migliore delle altre.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esistono diversi metodi per irrigare: il sistema con auto-avvolgente ed irrigatore è il più versatile e flessibile. Solitamente l'acqua è messa in pressione da una motopompa della quale si può regolare il numero di giri e, quindi, prevalenza e portata. Il quesito che l'elaborato si pone riguarda la distanza e la superficie bagnabile, impostato il numero di giri a cui ruota la pompa centrifuga.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le criticità sorte in seguito alla diffusione della Pandemia da Covid-19, a partire dal 2020, sono numerose. In tal senso, all’interno della logistica, rivestono un ruolo molto rilevante i numerosi ritardi nelle consegne, che trovano maggiore evidenza nelle spedizioni via mare. Pertanto, l’adozione di strategie volte ad aumentare la resilienza delle catene di approvvigionamento, rendendole in grado di resistere alle criticità del presente e alle possibili evoluzioni del futuro, diventa sempre più importante. L’obiettivo del presente studio è l’individuazione di una strategia che permetta di rispondere alle criticità legate ai ritardi nelle consegne dei materiali, per ridurre i problemi da essi causati. L’azienda in cui questo studio è stato svolto è la Ducati Motor Holding S.p.A., produttrice di motocicli. Infatti, nelle aziende manifatturiere, il ritardo nell’arrivo dei componenti determina delle conseguenze nella produzione ed eventuali ritardi nella consegna del prodotto finito. Per fronteggiare queste difficoltà, il metodo individuato consiste nell’analisi dei dati storici relativi ai ritardi rilevati e nella previsione dei ritardi futuri, utilizzando le tecniche di previsione basate sulle serie storiche. L’individuazione del numero di giorni di ritardo previsti viene utilizzata per determinare ogni mese il margine di copertura ottimale con cui effettuare gli ordini ai fornitori, in modo da evitare problemi nella produzione. Questo margine di copertura è definito dinamico, poiché non è fissato tutto l’anno per un medesimo materiale, ma varia ogni mese in base alle previsioni effettuate, garantendo così la flessibilità necessaria per rispondere alle contingenze esterne. In questo modo, riducendo i ritardi nelle consegne e, di conseguenza, i ritardi nella produzione, si ottiene un risparmio economico in termini di costi da sostenere, considerando i costi di stoccaggio e i costi di recupero delle moto incomplete.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’olio di oliva è tra i prodotti alimentari principali della dieta mediterranea e possiede delle caratteristiche salutistiche, compositive e sensoriali peculiari. La qualità e la genuinità dell’olio di oliva vergine sono valutate sia mediante determinazioni analitiche chimiche e strumentali, sia attraverso l’analisi sensoriale. Quest’ultima, realizzata con il metodo del panel test, è tra i metodi ufficiali per la classificazione degli oli di oliva vergini nelle tre categorie commerciali extra vergine, vergine e lampante. Tuttavia, l’analisi sensoriale presenta dei limiti legati, in particolare, al numero elevato di campioni di olio da analizzare rispetto alle capacità di lavoro dei panel. Negli ultimi anni è aumentata, così, la necessità di sviluppare e validare metodi analitici strumentali che, pre-classificando gli oli in esame, siano di supporto al panel test e possano ridurre il numero di campioni da sottoporre ad analisi sensoriale. In questo elaborato di tesi sono state prese in considerazione due diverse tecniche analitiche, la gas cromatografica accoppiata alla spettrometria a mobilità ionica (HS-GC-IMS) e la flash gas cromatografia (FGC E-nose), entrambe impiegate per la valutazione della frazione volatile dell’olio di oliva, responsabile degli attributi olfattivi del prodotto. Utilizzando i risultati ottenuti applicando queste due tecniche, mediante analisi multivariata, è stato possibile stimare la categoria merceologica di ogni campione appartenente ad un set di 52 oli di oliva vergini, classificandoli con un determinato livello di probabilità. Entrambe le metodiche analitiche sono già state utilizzate e valutate in precedenti studi; con la sperimentazione effettuata nell’ambito di questa tesi è stato possibile confermare l’efficacia dei modelli di stima che possono essere impiegati con finalità di screening in supporto al panel test, nell’ottica di renderli sempre più robusti ed affidabili per la classificazione degli oli di oliva vergini.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'utilizzo del marketing non convenzionale, o unconventional marketing in inglese, è stato utilizzato in tante campagne pubblicitarie, che vanno dall'azienda sportiva della Nike, alle agenzie legate agli aiuti umanitari come l'UNICEF. Ma questo nuovo modo di sponsorizzare i prodotti è arrivato anche nel mondo dell'audiovisivo. Prima nel cinema, con The Blair Witch Project, e successivamente nella televisione. Ma ora, con il mondo che si sta sempre più digitalizzando, e con l'arrivo delle piattaforme streaming, questa tecnica basata sull'avvicinamento dello spettatore al prodotto multimediale nella maniera più creativa possibile è diventata la chiave per vincere l'attenzione del pubblico. Questa tesi raccoglie i maggiori esempi di campagne pubblicitarie di prodotti seriali originali appartenenti a tre delle maggiori piattaforme streaming (Netflix, Disney+ e Amazon Prime Video) che hanno utilizzato l'Unconventional Marketing nelle sue varie forme e sfaccettature, per arrivare a risvegliare la curiosità del maggior numero di persone possibili e consolidare la fedeltà degli spettatori già nel mezzo di questo percorso seriale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Background: l’intervento di artroprotesi inversa di spalla sta assumendo sempre più importanza all’interno dell’approccio chirurgico della spalla. Il Concetto Bobath viene somministrato solitamente a pazienti con problematiche neurologiche centrali (es. ictus), ma si è visto molto efficace nel ristabilire un’importante stabilità scapolare a livello dell’arto superiore. Obiettivo: valutare il dolore e la funzionalità di spalla in persone con protesi inversa di spalla in seguito ad un percorso riabilitativo implementato da tecniche appartenenti al Concetto Bobath. Metodi: sono stati selezionati tre soggetti (3 F) di et. media di 74 anni sottoposti ad intervento di artroprotesi inversa di spalla e successivamente a trattamento riabilitativo con tecniche appartenenti al Concetto Bobath. I soggetti partecipanti sono stati valutati durante e alla fine del percorso riabilitativo attraverso l’utilizzo della scala NRS per il dolore, mentre per la funzionalità di spalla la UCLA Shoulder Scale), la Constant-Murley Scale e la DASH. I limiti presenti in questo studio sono attribuibili sia al fatto che nelle banche dati sono assenti studi che riguardano lo stesso argomento, sia al fatto che il numero di pazienti entrati a far parte dello studio è molto limitato sia per le complicanze durante il trattamento o l’interruzione del trattamento in alcuni pazienti. Risultati: al termine della sperimentazione, tutti i soggetti hanno presentato un miglioramento delle misure di outcome. Un importante miglioramento si è notato nella stabilità scapolare, nei compensi muscolari e nel dolore. I risultati sono stati poi confrontati con gli outcome di pazienti trattati secondo protocolli standardizzati, appartenenti a studi presenti all’interno delle banche dati. Conclusioni: l’utilizzo di tecniche appartenenti al Concetto Bobath sembra essere efficace in pazienti sottoposti ad artroprotesi inversa di spalla. Tuttavia, sono necessari ulteriori studi per verificarne gli effettivi effetti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La rete di Hopfield è una tipologia di rete neurale che si comporta come una memoria associativa. La caratteristica più importante per questo tipo di rete è la capacità pmax, cioè quanti dati, chiamati ricordi, può apprendere prima che cambi comportamento. Infatti, per un numero grande di ricordi, avviene una transizione di fase e la rete smette di comportarsi come desiderato. La capacità di una rete di Hopfield è proporzionale al numero di neuroni N che la compongono, pmax = α N , dove α = 0.138. Una variante importante di questo modello è la rete di Hopfield diluita. In questa rete i neuroni non sono tutti connessi tra loro ma l’esistenza di connessioni tra due neuroni è determinata in modo stocastico con probabilità ρ di esserci e 1 − ρ di essere assente. Il grafo di una rete così definita è un grafo aleatorio di Erdös–Rényi. Il lavoro qui presentato ha lo scopo di studiare le proprietà statistiche dell’apprendimento di questo tipo di reti neurali, specialmente l’andamento della capacità in funzione del parametro ρ e le connettività del grafo durante le transizioni di fase che avvengono nel network. Attraverso delle simulazioni, si è concluso che la capacità di una rete di Hopfield diluita pmax segue un andamento a potenza pmax = aN ρb +c, dove N è il numero di neuroni, a = (0.140 ± 0.003), b = (0.49 ± 0.03), e c = (−11 ± 2). Dallo studio della connettività del grafo è emerso che la rete funge da memoria associativa finché il grafo del network risulta connesso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La perfusione ex-vivo, ossia dopo il prelievo e prima del trapianto, degli organi si afferma come una delle possibili strategie per superare il divario esistente tra il numero dei pazienti in lista d’attesa e il numero degli organi disponibili e idonei al trapianto. Questo divario ha portato alla necessità di includere tra i donatori anche quelli marginali (anziani, con comorbidità, con cause di morte come l’arresto cardiaco e tempi di ischemia), fino ad oggi considerati non trapiantabili. L’utilizzo di questi organi ha messo in evidenza alcuni limiti di quella che, ad oggi, è stata considerata la tecnica di riferimento per la preservazione ex-vivo degli organi: la conservazione statica ipotermica che risulta, infatti, efficace per gli organi ottimali, mentre per quelli più compromessi, sembra accentuare di più il danno d’organo e incrementare il rischio di fallimento o di complicazioni. Si sono, perciò, affermate tecniche di conservazione dinamica per poter conservare gli organi in un ambiente simil-fisiologico, limitando i tempi di ischemia, valutandone la funzionalità ed eventualmente applicando dei trattamenti terapeutici. I diversi protocolli di perfusione sono stati implementati in numerosi sistemi per l’esecuzione dei trattamenti di perfusione ex-vivo. Essi differiscono principalmentente per la modalità termica eseguita: ipotermia (4-12°C), midtermia (13-24°C), subnormotermia (25-35°C), normotermia (35-37°C) o modalità combinate: tanto più la temperatura si avvicina a quella del corpo, tanto più occorre ricreare un ambiente fisiologico per l’organo. L’analisi delle unità termiche costituenti i sistemi di perfusione dei reni e fegati disponibili ha messo in evidenza i principali limiti e vantaggi di ogni soluzione adottata. Risulta evidente che una gestione ideale della termoregolazione constente di coprire i più vasti intervalli di temperatura, di combinare le diverse modalità, senza complicazioni esecutive e con limitati interventi da parte dell’operatore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’immunoterapia è una delle tecniche più all’avanguardia per la lotta contro il cancro e si basa sull’aumento delle prestazioni del sistema immunitario attraverso anticorpi monoclonali (ovvero farmaci immunoterapici). Grazie a questi, la terapia garantisce l’inibizione dei checkpoint immunologici, che permettono alle cellule del sistema immunitario di riconoscere la presenza del tumore e aggredirlo fino a eradicarlo. La tesi propone una soluzione frazionaria al problema della crescita tumorale, basandosi su un modello di Kuznetsov esteso dove viene presa in considerazione anche il parametro di concentrazione di Interleuchina-2. Tramite un’analisi di stabilità del modello proposto è possibile arrivare a un valore di sigma, ovvero il rateo di cellule effettrici, per il quale il sistema delle cellule tumorali viene completamente eradicato. Una volta trovata la condizione di stabilità e calcolato il valore di alpha (ordine della derivata frazionaria) che approssima al meglio la crescita tumorale nel caso reale, viene proposto un sistema di controllo automatico in retroazione basato sul numero di cellule effettrici per automatizzare il processo immunoterapico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Prevedere quanto e quando un cliente richiederà un determinato prodotto è da sempre una delle sfide più complicate che un’azienda deve affrontare. Una delle metodologie più utilizzate è il processo di Sales and Operations, costituito da 5 fasi. L’obiettivo di questo elaborato è illustrare la creazione del processo applicata a una famiglia di prodotti che andrà a sostituire molteplici altri codici prodotti dell’azienda Sherwin-Williams. Per la creazione si è interagito con varie funzioni della multinazionale, tra cui l’ufficio di supply chain, l’ufficio vendite e i vari uffici produzione degli stabilimenti europei. La creazione del processo si articola nelle 5 fasi classiche quindi: raccolta dati sulla domanda futura in cui sono stati individuati i consumi interni e le vendite ai clienti terzi dei prodotti; la creazione del piano di domanda e del piano di produzione iniziale, approvazione produzione delle quantità concordate e definizione delle politiche di gestione sia delle strutture clienti che dello stabilimento produttivo, infine, la fase di miglioramento e monitoraggio del processo. Nell’ultima fase tra le migliorie al processo si ridurrà il numero di codici univoci da gestire del 34%, verrà individuata la zona ottimale per l’ubicazione di un magazzino distributivo e si analizzerà l’aderenza alla schedulazione presso il reparto liquidi dello stabilimento con l’obiettivo di ridurre il Lead Time di produzione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro si studierà un nuovo sistema di consegna merci, denominato crowd-shipping. Questo si propone come soluzione per il trasporto della merce a domicilio, soprattutto per quanto riguarda l’ultimo miglio, con la quale si intendono le consegne che vengono effettuate all’interno dei centri urbani. È una soluzione recente che prevede di appoggiare ai corrieri tradizionali delle persone comuni, definiti corrieri occasionali (OD, Occasional Drivers). Questi ultimi, percorrendo un tratto di strada per motivi personali, sono disposti a consegnare la merce ai destinatari finali effettuando delle deviazioni al loro tragitto originario, in cambio di un compenso. Dopo aver studiato la situazione attuale dell’E-commerce e dello sviluppo delle Sharing Economy, dopo aver appreso il funzionamento di questo nuovo tipo di soluzione logistica, verrà presentato un modello matematico di programmazione lineare per le consegne last mile della merce in crowd-shipping. Questo modello verrà testato nel contesto urbano di Bologna e prevedrà due livelli di consegna rappresentati in primis dai corrieri tradizionali e in secondo luogo dai corrieri occasionali. Modalità possibile grazie all’utilizzo di armadietti automatici come depositi intermedi; si avranno, infatti, dei corrieri classici che riforniscono gli armadietti e dei corrieri occasionali che prelevano la merce dagli armadietti e la consegnano ai destinatari finali. Il modello sarà implementato in scenari diversi, con un differente numero di attori coinvolti, diverse ricompense per gli OD e diverse tipologie di veicoli, più o meno inquinanti. Questo ultimo punto ci anticipa che questa modalità di consegne può portare benefici importanti anche a livello ambientale; e in un mondo dove i cambiamenti atmosferici dovuti all’inquinamento sono sempre più devastanti, il crowd-shipping può portare a benefici concreti. Benefici che si sono dimostrati anche economici, sia per le aziende di spedizioni, sia per i clienti finali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi è basata sul dimensionamento e l’analisi degli articoli che possono andare all’interno di un nuovo magazzino. Il progetto nasce dalla necessità di espandere il centro di stoccaggio attuale. Verranno costruiti un magazzino Autostore, una struttura più compatta ed efficiente nello stoccaggio della merce, ed un nuovo magazzino pallet servito da traslo elevatori. Dato che i materiali all’interno dell’Autostore devono essere stoccati all’interno di cassette più piccole rispetto ad un pallet, è stato necessario stimare il numero di articoli idonei a questo tipo di stoccaggio sia dal punto di vista del peso che dal punto di vista volumetrico, dato che di solo un 30% dei codici si è a conoscenza delle dimensioni. L’analisi si è sviluppata tramite stime in base a quanti codici siano presenti all’interno dei pallet e la loro quantità al suo interno. Da questa stima si sono ricavate tre categorie, verde, arancione e rossa che identificano se i materiali risultano idonei oppure no. I primi sono quelli che possono andare all’interno dell’Autostore, i secondi risultano essere border line, mentre i terzi non possono andare all’interno sicuramente. Degli articoli in esame sono state estratte anche le giacenze medie nei 3 anni passati, in modo tale da dimensionare adeguatamente i magazzini, le entrate merci, così da vedere quante baie di carico sono necessarie e le varie tipologie di movimento legate ai prelievi e le tempistiche di prelievo per ogni baia di scarico, in modo tale da valutare le minime prestazioni che il nuovo magazzino deve soddisfare. Sono stati calcolati anche dei flussi di materiale, uscente ed entrante dall’azienda, in modo tale da individuare la posizione ottimale del nuovo centro di stoccaggio. Infine sono state dimensionate e costificate le due soluzioni: quella Autostore che può ospitare tutti gli articoli della categoria verde, di cui sono stati sviluppati due scenari, mentre quella del magazzino automatico pallet che contiene le altre due categorie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il mondo delle macchine automatiche è in costante evoluzione, ed è in questo contesto che si colloca l’attività di analisi e progettazione oggetto di questo studio. Tutto questo è stato svolto presso l’azienda G.D S.p.A. All’interno dell’Ufficio Tecnico dell’azienda, in collaborazione con l’Ufficio Calcolo, è stata analizzata la resistenza dei componenti, il comportamento deformativo e lo stato tensionale di una testa di taglio principalmente per filtri e cannucce, con lo scopo di sviluppare una nuova soluzione a velocità incrementata, già presente in diverse macchine automatiche e che verrà implementata in molte altre ancora in fase di produzione e progettazione. A tale scopo vengono effettuate diverse verifiche sui componenti, confrontando continuamente i risultati con la situazione attuale di funzionamento e con innovative simulazioni dinamiche e FEM, sull’intero assieme, con lo scopo di prendere in considerazione il maggior numero di contributi alle sollecitazioni, alle deformazioni ed alle vibrazioni possibili, che potrebbero causare criticità o malfunzionamenti del sistema, modellando nel modo più realistico possibile il funzionamento e la movimentazione del meccanismo. L’attuale produttività massima della macchina si attesta su 5000 pz/min con una velocità di rotazione della testa di taglio di 2500 rpm. L’analisi e il miglioramento del sistema ha l’obiettivo di aumentare la velocità di produzione, e quindi di rotazione, a 6000 pz/min e 3000 rpm. Viene infine analizzata la nuova soluzione, verificando anche con prove di funzionamento la validità delle simulazioni e della riprogettazione effettuati. Sono stati studiati e presi in considerazione tutti gli aspetti fondamentali della testa di taglio, nel suo assieme e di ogni suo componente, con lo scopo di migliorarne le prestazioni e la produttività garantendo la sicurezza del meccanismo e al tempo stesso un funzionamento ottimale con la creazione di un prodotto di ottima qualità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi quattro anni la summarization astrattiva è stata protagonista di una evoluzione senza precedenti dettata da nuovi language model neurali, architetture transformer-based, elevati spazi dimensionali, ampi dataset e innovativi task di pre-training. In questo contesto, le strategie di decoding convertono le distribuzioni di probabilità predette da un modello in un testo artificiale, il quale viene composto in modo auto regressivo. Nonostante il loro cruciale impatto sulla qualità dei riassunti inferiti, il ruolo delle strategie di decoding è frequentemente trascurato e sottovalutato. Di fronte all'elevato numero di tecniche e iperparametri, i ricercatori necessitano di operare scelte consapevoli per ottenere risultati più affini agli obiettivi di generazione. Questa tesi propone il primo studio altamente comprensivo sull'efficacia ed efficienza delle strategie di decoding in task di short, long e multi-document abstractive summarization. Diversamente dalle pubblicazioni disponibili in letteratura, la valutazione quantitativa comprende 5 metriche automatiche, analisi temporali e carbon footprint. I risultati ottenuti dimostrano come non vi sia una strategia di decoding dominante, ma come ciascuna possieda delle caratteristiche adatte a task e dataset specifici. I contributi proposti hanno l'obiettivo di neutralizzare il gap di conoscenza attuale e stimolare lo sviluppo di nuove tecniche di decoding.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In un mondo in continua trasformazione cresce sempre più il numero delle aziende che hanno colto l’importanza della digitalizzazione dei processi produttivi. Alcune di esse si affidano ad esperti capaci di suggerire soluzioni per ottenere servizi di alta qualità e fruibilità con l’integrazione di sistemi gestionali. Il presente lavoro di tesi ha come obiettivo l’analisi del processo produttivo di una azienda che realizza armadi per stazioni di ricarica elettrica serie terra a colonna. Si compone di sei capitoli, il primo affronta il tema della Simulazione e le sue principali caratteristiche per analizzare un processo di produzione; il secondo esamina i linguaggi, le applicazioni e i modelli di simulazione; il terzo analizza e descrive le peculiarità e le caratteristiche del software utilizzato per la simulazione; il quarto capitolo affronta il tema dell’industria 4.0 spingendo all’innovazione nei sistemi produttivi per raggiungere una produzione del tutto automatizzata e interconnessa; nel quinto viene descritto il modello digitale per ottenere in modo preciso un oggetto fisico, così da avere una Simulazione precisa, infine, il sesto esamina la Simulazione e Modellizzazione come strumento per l’ottimizzazione del processo produttivo riguardante armadi per stazioni di ricarica elettrica serie terra a colonna. Il raggiungimento dell’uso della simulazione come supporto all’analisi dinamica di un processo consente di avere una panoramica complessiva di tutte le operazioni, rappresentando, così un vantaggio per le aziende che possono valutare con oggettività soluzioni progettuali alternative, di cui è difficile prevedere il comportamento, le prestazioni e l’impatto su altri sistemi. Questi risultati sono la risposta alle necessità di disporre strumenti per l’anticipazione, il dimensionamento e il contenimento dei rischi di progetto.