1000 resultados para Ribes rosso,Prodotti funzionali,Tecniche estrattive,Prodotti a base di carne
Resumo:
È necessario intraprendere una via maggiormente ecosostenibile e vantaggiosa per gestire le problematiche presenti in vivaio, e in generale in vigneto, adottando tecniche ammesse in agricoltura biologica o, meglio ancora, con una visione agroecologica della gestione. Le osservazioni condotte presso i Vivai Maiorana hanno indagato la diversa suscettibilità di genotipi di vite ai principali patogeni fungini e gli effetti della consociazione sui sintomi causati da tali patogeni. In primo luogo si è osservata la differenza di suscettibilità tra le cultivars di Merlot e la varietà portinnesto Kober 5BB. I genotipi di Vitis vinifera analizzati si sono dimostrati suscettibili, a differenza del portinnesto Kober 5BB che è risultato completamente esente da sintomi. In seguito, le osservazioni si sono concentrate nel lotto del barbatellaio, in cui tre filari di Calabrese e tre filari di Nerello Mascalese sono separati da un filare di Isabella. Le osservazioni svolte hanno permesso di indagare gli effetti della consociazione, sfruttando l’attuale impostazione del vivaio, in cui diversi genotipi di vite vengono coltivate a stretto contatto. Si è osservata una variazione dei sintomi di peronospora su Vitis vinifera in relazione alla distanza dalla varietà Isabella. L’effetto è presumibilmente mediato da VOCs specifici. Questi benefici, se opportunamente sfruttati, consentirebbero di ridurre sensibilmente la necessità di intervenire con prodotti esogeni nella gestione del barbatellaio, aumentando la possibilità di impostare una produzione biologica che soddisfi le necessità della viticoltura moderna, con vantaggi agronomici ed ecologici.
Resumo:
L'image captioning è un task di machine learning che consiste nella generazione di una didascalia, o caption, che descriva le caratteristiche di un'immagine data in input. Questo può essere applicato, ad esempio, per descrivere in dettaglio i prodotti in vendita su un sito di e-commerce, migliorando l'accessibilità del sito web e permettendo un acquisto più consapevole ai clienti con difficoltà visive. La generazione di descrizioni accurate per gli articoli di moda online è importante non solo per migliorare le esperienze di acquisto dei clienti, ma anche per aumentare le vendite online. Oltre alla necessità di presentare correttamente gli attributi degli articoli, infatti, descrivere i propri prodotti con il giusto linguaggio può contribuire a catturare l'attenzione dei clienti. In questa tesi, ci poniamo l'obiettivo di sviluppare un sistema in grado di generare una caption che descriva in modo dettagliato l'immagine di un prodotto dell'industria della moda dato in input, sia esso un capo di vestiario o un qualche tipo di accessorio. A questo proposito, negli ultimi anni molti studi hanno proposto soluzioni basate su reti convoluzionali e LSTM. In questo progetto proponiamo invece un'architettura encoder-decoder, che utilizza il modello Vision Transformer per la codifica delle immagini e GPT-2 per la generazione dei testi. Studiamo inoltre come tecniche di deep metric learning applicate in end-to-end durante l'addestramento influenzino le metriche e la qualità delle caption generate dal nostro modello.
Resumo:
La tesi analizza il criterio di responsabilità civile fondato sull'esercizio di attività pericolose (art. 2050 c.c.), proponendone un inquadramento all'interno del campo della responsabilità oggettiva. Viene dunque approfondito, in quest'ottica, il problema del contenuto della prova liberatoria. Anche alla luce del confronto con altri ordinamenti giuridici, poi, l'elaborato si sofferma sulla indefinita nozione di pericolosità e sulle possibili strade per circoscriverla. Nell'ultima parte della tesi, ci si intrattiene sulle interferenze tra responsabilità civile disciplinata a livello comunitario (in particolare quella per danni cagionati da prodotti difettosi) e criterio di imputazione fondato sul pericolo. Tale ampia disamina consente infine di affrontare il problema della regolazione dei rischi di danno implicati dallo sviluppo delle tecniche di Intelligenza artificiale. Lo scopo è quello di contribuire al dibattito che è in corso presso la dottrina e presso le Istituzioni dell'Unione europea, dal punto di osservazione del modello nazionale delle "attività pericolose".
Resumo:
Il quark-gluon plasma (QGP) è uno stato della materia previsto dalla cromodinamica quantistica. L’esperimento ALICE a LHC ha tra i suoi obbiettivi principali lo studio della materia fortemente interagente e le proprietà del QGP attraverso collisioni di ioni pesanti ultra-relativistici. Per un’esaustiva comprensione di tali proprietà, le stesse misure effettuate su sistemi collidenti più piccoli (collisioni protone-protone e protone-ione) sono necessarie come riferimento. Le recenti analisi dei dati raccolti ad ALICE hanno mostrato che la nostra comprensione dei meccanismi di adronizzazione di quark pesanti non è completa, perchè i dati ottenuti in collisioni pp e p-Pb non sono riproducibili utilizzando modelli basati sui risultati ottenuti con collisioni e+e− ed ep. Per questo motivo, nuovi modelli teorici e fenomenologici, in grado di riprodurre le misure sperimentali, sono stati proposti. Gli errori associati a queste nuove misure sperimentali al momento non permettono di verificare in maniera chiara la veridicità dei diversi modelli proposti. Nei prossimi anni sarà quindi fondamentale aumentare la precisione di tali misure sperimentali; d’altra parte, stimare il numero delle diverse specie di particelle prodotte in una collisione può essere estremamente complicato. In questa tesi, il numero di barioni Lc prodotti in un campione di dati è stato ottenuto utilizzando delle tecniche di machine learning, in grado di apprendere pattern e imparare a distinguere candidate di segnale da quelle di fondo. Si sono inoltre confrontate tre diverse implementazioni di un algoritmo di Boosted Decision Trees (BDT) e si è utilizzata quella più performante per ricostruire il barione Lc in collisioni pp raccolte dall’esperimento ALICE.
Resumo:
La tesi analizza il modello Input-Output, introdotto da Leontief nel 1936, per studiare la reazione dei sistemi industriali di Germania, Spagna ed Italia alle restrizioni imposte dai governi per limitare la diffusione della pandemia da COVID-19. Si studiano le economie considerando gli scambi tra i settori produttivi intermedi e la domanda finale. La formulazione originale del modello necessita diverse modifiche per descrivere realisticamente le reti di produzione e comunque non è del tutto esaustiva in quanto si ipotizza che la produttività dei sistemi sia sempre tale da soddisfare pienamente la domanda che giunge per il prodotto emesso. Perciò si introduce una distinzione tra le variabili del problema, assumendo che alcune componenti di produzione siano indipendenti dalla richiesta e che altre componenti siano endogene. Le soluzioni di questo sistema tuttavia non sempre risultano appartenenti al dominio di definizione delle variabili. Dunque utilizzando tecniche di programmazione lineare, si osservano i livelli massimi di produzione e domanda corrisposta in un periodo di crisi anche quando i sistemi non raggiungono questa soglia poiché non pienamente operativi. Si propongono diversi schemi di razionamento per distribuire tra i richiedenti i prodotti emessi: 1) programma proporzionale in base alle domande di tutti i richiedenti; 2) programma proporzionale in base alle richieste, con precedenza ai settori intermedi; 3) programma prioritario in cui vengono riforniti i settori intermedi in base alla dimensione dell’ordine; 4) programma prioritario con fornitura totale degli ordini e ordine di consegna casuale. I risultati ottenuti dipendono dal modello di fornitura scelto, dalla dimensione dello shock cui i settori sono soggetti e dalle proprietà della rete industriale, descritta come grafo pesato.
Resumo:
La tesi si occupa di delineare una panoramica sul sistema dell'industria dei media e in particolare delle tendenze contemporanee produttive e di marketing volte ad attirare il maggior numero di consumatori. Si prende in esame il prodotto cinematografico dal punto di vista economico e di marketing delineandone i diversi processi: dal marketing mix alle tecniche di segmentazione, targeting e posizionamento fino alle diverse componenti del prodotto stesso che influenzano le scelte dei fruitori. Quest'ultimi esprimono esigenze diverse ed è per questo che è importante che si conosca la domanda a cui rivolgersi e saper comunicare nel modo più adeguato possibile. Nella contemporaneità lo spettatore è sempre più attivo e coinvolto poiché con la sovrabbondanza di offerta si cerca di produrre contenuti più complessi, serializzati e high concept proprio con l'obiettivo di attrarre. Nell'era della convergenza, come definita da Henry Jenkins, si parla di prosumer, ovvero di soggetti che partecipano attivamente al consumo dei prodotti producendo a loro volta contenuti. A queste dinamiche, il marketing contemporaneo risponde a sua volta con forme esperienziali e a forme virali che possano attirare l'attenzione. Analizzo a tal proposito la campagna marketing della serie tv Mr. Robot in quanto si inserisce all'interno della complessità produttiva e della transmedialità e il caso cinematografico della campagna di No Time to Die, l'ultimo film del franchise di 007, in era pandemica.
Resumo:
la gestione ottimale del rischio alluvionale è un ambito di ricerca di grande rilevanza a livello nazionale e internazionale. Con riferimento alle alluvioni, infatti, sono state proposte in letteratura diverse tecniche innovative per la previsione e la mitigazione del rischio alluvionale. Tra di esse spiccano le tecniche speditive di mappatura della pericolosità idraulica ottenute attraverso l'utilizzo di descrittori geomorfici. Detti approcci derivano descrittori morfologici analizzando modelli digitali delle quote del terreno (DEM) ed in base ad essi forniscono una mappatura di pericolosità idraulica da alluvione. Che gioco svolge la risoluzione del DEM di partenza sull'accuratezza dei prodotti finali? La combinazione di DEM a diversa risoluzione migliora le prestazioni dei singoli dataset? Il lavoro di Tesi analizza l'importanza della risoluzione del DEM di partenza sull'accuratezza delle mappature conseguibili, utilizzando come riferimento l'area del bacino del Samoggia con chiusura a Calcara. I risultati ottenuti mostrano come: (a) le caratteristiche dei descrittori geomorfici considerati sembrano essere influenzate significativamente da quelle del DEM utilizzato come dato in ingresso e (b) DEM ad elevata risoluzione portino ad un aumento nell'accuratezza della mappatura di pericolosità.
Resumo:
La possibilità di avere accesso alle piattaforme streaming consente all’utente di avere a disposizione un vasto catalogo pieno di contenuti multimediali provenienti da ogni parte del mondo. I prodotti audiovisivi, di cui cresce costantemente il numero di consumatori, sono diventati uno dei mezzi principali della globalizzazione e dello scambio tra i popoli: un film o una serie televisiva sono portatori di elementi originari e tipici della cultura del paese che li produce. In questo contesto, risulta evidente l’importanza della traduzione audiovisiva: il compito dei traduttori è tentare di facilitare il contatto tra le culture e la comprensione degli elementi che le caratterizzano, nel passaggio da una lingua a un’altra. Tuttavia, a causa dei limiti derivanti dalla natura audiovisiva di questi testi, non è sempre possibile ottenere un risultato che rispetti il testo di partenza e che allo stesso tempo sia comprensibile allo spettatore. Per questi motivi, i traduttori si trovano spesso costretti a valutare, a seconda della vicinanza tra le due culture, se mantenere, eliminare o gestire con strategie adatte i termini culturospecifici. Dopo aver contestualizzato brevemente le origini e le caratteristiche della traduzione audiovisiva, l’elaborato in oggetto si propone di descrivere gli adattamenti in italiano e in spagnolo di alcune espressioni, collocate in uno specifico contesto culturale, della serie tv statunitense The Marvelous Mrs. Maisel (Amy Sherman-Palladino, 2017), con l’obiettivo di identificare le tecniche di traduzione e il principale approccio, source-oriented o target-oriented, adottato.
Resumo:
L’accresciuto settore online della produzione, distribuzione e promozione di libri, sia in formato cartaceo che digitale, sta influenzando sempre di più le case editrici e gli autori ad adottare un approccio multimediale, contribuendo a creare un vero e proprio mercato parallelo, i cui vettori sono rappresentati dalla modalità tradizionale a cui si sta sempre più fortemente affiancando quella digitale e multimediale . Questa tesi ha l’obiettivo di analizzare come nell’ambito editoriale il passaggio al digitale abbia comportato una serie di modifiche nei paradigmi con cui la casa editrice e gli autori si interfacciano con i lettori, dalla modalità con la quale i prodotti editoriali digitali sono creati ed immessi nel mercato, al rapporto di comunicazione tra i lettori, gli autori e le aziende del settore. La prima parte della tesi si articola all’interno del rapporto tra editoria e internet, di come si sviluppa la struttura dell’editoria digitale e di come i canali distributivi abbiano modificato la modalità con cui i prodotti editoriali vengono catalogati e venduti, utilizzando i siti web e gli store online delle case editrici e degli autori.Il secondo capitolo indaga in maniera approfondita come una casa editrice dovrebbe rivolgersi dunque al marketing digitale, le tecniche e i percorsi che dovrebbe affrontare per raggiungere o ingrandire il proprio bacino d’utenza. Il terzo capitolo approfondisce la modalità del dialogo che si è venuto ad instaurare tra il lettore e le piattaforme digitali, e di come siano utilizzate dalle case editrici stesse per comunicare con i lettori propri utenti, attraverso una multimedialità che rende il libro un contenuto liquido, ovvero che si dirama in più informazioni. Il quarto e ultimo capitolo analizza nello specifico il caso Amazon Publishing. Seguiranno conclusioni sull'attuale situazione del mercato editoriale e sviluppi futuri.
Resumo:
Il Machine Learning si sta rivelando una tecnologia dalle incredibili potenzialità nei settori più disparati. Le diverse tecniche e gli algoritmi che vi fanno capo abilitano analisi dei dati molto più efficaci rispetto al passato. Anche l’industria assicurativa sta sperimentando l’adozione di soluzioni di Machine Learning e diverse sono le direzioni di innovamento che ne stanno conseguendo, dall’efficientamento dei processi interni all’offerta di prodotti rispondenti in maniera adattiva alle esigenze del cliente. Questo lavoro di tesi è stato realizzato durante un tirocinio presso Unisalute S.p.A., la prima assicurazione in ambito sanitario in Italia. La criticità intercettata è stata la sovrastima del capitale da destinare a riserva a fronte dell’impegno nei confronti dell’assicurato: questo capitale immobilizzato va a sottrarre risorse ad investimenti più proficui nel medio e lungo termine, per cui è di valore stimarlo appropriatamente. All'interno del settore IT di Unisalute, ho lavorato alla progettazione e implementazione di un modello di Machine Learning che riesca a prevedere se un sinistro appena preso in gestione sarà liquidato o meno. Dotare gli uffici impegnati nella determinazione del riservato di questa stima aggiuntiva basata sui dati, sarebbe di notevole supporto. La progettazione del modello di Machine Learning si è articolata in una Data Pipeline contenente le metodologie più efficienti con riferimento al preprocessamento e alla modellazione dei dati. L’implementazione ha visto Python come linguaggio di programmazione; il dataset, ottenuto a seguito di estrazioni e integrazioni a partire da diversi database Oracle, presenta una cardinalità di oltre 4 milioni di istanze caratterizzate da 32 variabili. A valle del tuning degli iperparamentri e dei vari addestramenti, si è raggiunta un’accuratezza dell’86% che, nel dominio di specie, è ritenuta più che soddisfacente e sono emersi contributi non noti alla liquidabilità dei sinistri.
Resumo:
Negli ultimi anni si è visto un forte segnale di cambiamento culturale indirizzato verso la sostenibilità affermando sempre più efficacemente i concetti di riciclaggio, riduzione e riutilizzo. Finora il design dei prodotti si è concentrato su aspetti che sfavorivano tale approccio e piuttosto si ponevano come specifica quella di definire a priori la vita del prodotto. Infatti, si sono sempre più sviluppate tecniche di accoppiamento delle parti che una volta accoppiate non consentivano più il disassemblaggio di queste. L’obiettivo di tale elaborato è stato quello di definire, nella famiglia di metodologie chiamata Design for X, un criterio che possa valutare e guidare la progettazione in ottica più mirata verso la riparabilità del prodotto “Design for Repair”. Aumentare la riparabilità del prodotto vuol dire poter aumentare la sua longevità, così da non avere la necessità di sostituirlo con un componente nuovo causando un impatto ambientale doppio, ossia la mancata necessità sia di sfruttare risorse per la realizzazione del sostituto sia di non dover occuparsi del processo di smaltimento del prodotto sostituito.
Resumo:
In questo elaborato vengono analizzate differenti tecniche per la detection di jammer attivi e costanti in una comunicazione satellitare in uplink. Osservando un numero limitato di campioni ricevuti si vuole identificare la presenza di un jammer. A tal fine sono stati implementati i seguenti classificatori binari: support vector machine (SVM), multilayer perceptron (MLP), spectrum guarding e autoencoder. Questi algoritmi di apprendimento automatico dipendono dalle features che ricevono in ingresso, per questo motivo è stata posta particolare attenzione alla loro scelta. A tal fine, sono state confrontate le accuratezze ottenute dai detector addestrati utilizzando differenti tipologie di informazione come: i segnali grezzi nel tempo, le statistical features, le trasformate wavelet e lo spettro ciclico. I pattern prodotti dall’estrazione di queste features dai segnali satellitari possono avere dimensioni elevate, quindi, prima della detection, vengono utilizzati i seguenti algoritmi per la riduzione della dimensionalità: principal component analysis (PCA) e linear discriminant analysis (LDA). Lo scopo di tale processo non è quello di eliminare le features meno rilevanti, ma combinarle in modo da preservare al massimo l’informazione, evitando problemi di overfitting e underfitting. Le simulazioni numeriche effettuate hanno evidenziato come lo spettro ciclico sia in grado di fornire le features migliori per la detection producendo però pattern di dimensioni elevate, per questo motivo è stato necessario l’utilizzo di algoritmi di riduzione della dimensionalità. In particolare, l'algoritmo PCA è stato in grado di estrarre delle informazioni migliori rispetto a LDA, le cui accuratezze risentivano troppo del tipo di jammer utilizzato nella fase di addestramento. Infine, l’algoritmo che ha fornito le prestazioni migliori è stato il Multilayer Perceptron che ha richiesto tempi di addestramento contenuti e dei valori di accuratezza elevati.
Resumo:
La tesi tratta funzionamento, ottimizzazione e applicazioni delle celle a combustibile PEM (PEM Fuel cells) che sono dispositivi capaci di convertire reversibilmente l’energia chimica contenuta nel combustibile in energia elettrica, energia termica e prodotti di reazione. Vengono analizzati gli effetti di temperatura, pressione e umidità sulla cinetica, sulle prestazioni, sull’OCV, sulla conduttività della membrana e sul trasferimento di massa. In generale, per utilizzare una cella a combustibile PEM, ogni componente, materiale e l'assemblaggio delle celle dovrebbe essere realizzabile e ottimizzato per ottenere alte prestazioni. Vengono, quindi, trattate le tecniche di test e diagnosi che rappresentano il modo più popolare e affidabile per convalidare i progetti di questi componenti e della cella combustibile stessa. Inoltre, si affronta il discorso sull’idrogeno definito come vettore di energia che ha assunto un ruolo di primo piano per un mercato a basse emissioni; infatti ha un grande potenziale come combustibile alternativo e assume un ruolo centrale nello scenario energetico del futuro. Infine, si parla anche di applicazioni pratiche ed esistenti riguardanti le celle a combustibile in veicoli, come le proposte di Nuvera ed EH Group.
Resumo:
Il Worldwide LHC Computing Grid (WLCG) è una collaborazione internazionale costituita da decine di centri di calcolo distribuiti globalmente, la cui missione consiste nell'elaborazione delle grandi quantità di dati prodotti dai maggiori esperimenti di Fisica delle Alte Energie, in particolare quelli al CERN di Ginevra. Uno di questi centri di calcolo è ospitato presso il CNAF dell'Istituto Nazionale di Fisica Nucleare a Bologna, che contribuisce anche allo sviluppo di middleware per la gestione dell'infrastruttura. Molti componenti di tale middleware, che hanno funzionalità e scopi diversi, richiedono un servizio di autorizzazione versatile e compatibile con i meccanismi di autenticazione attualmente in uso, basati su token OAuth 2.0 e su certificati VOMS Proxy. In questa tesi si analizzerà l'architettura e l'implementazione di un proof-of-concept di un sistema di autorizzazione che soddisfi queste necessità, enfatizzando l'integrazione delle tecniche di autenticazione citate. Per dimostrare la sua versatilità, verrà illustrato il processo di interfacciamento con un componente middleware attualmente in sviluppo al CNAF. Il risultato finale ottenuto è un sistema che rispetta i vincoli richiesti e si integra facilmente con servizi eterogenei.
Resumo:
L'elaborato di tesi affronta le tematiche legate al rilievo tridimensionale di un'opera idraulica storica, georeferenziato nel proprio contesto territoriale per supportare applicazioni di gestione, manutenzione e protezione civile. Si illustrano le tecniche geomatiche adottate e la loro integrazione, evidenziando in particolare le procedure adottate nella elaborazione della nuvola di punti derivante dalla fusione di rilievi fotogrammetrici e con laser a scansione. Sono infine presentati alcuni dei prodotti realizzati.