999 resultados para Donatello i.e. Donato di Niccolò di Betto Bardi, ca. 1386-1466.
Resumo:
Il presente elaborato intende studiare la comunicazione di moda, nello specifico la comunicazione aziendale della casa di moda di lusso francese Jacquemus. Per fare ciò, si inizia approfondendo l’argomento della storia della moda e riflettendo su come essa possa essere uno strumento di comunicazione non verbale. Successivamente, si prendono in esame i concetti aziendali di Brand Identity, Brand Positioning e analisi SWOT per analizzare come l’azienda di moda francese ha costruito la sua identità di marca, come si posiziona nella mente dei consumatori e per individuare i suoi punti di forza, di debolezza, le sue opportunità di crescita e le minacce che possono, potenzialmente, ostacolarla. Infine, si prendono in considerazione le strategie di marketing attuate da Jacquemus al fine di rendere efficace la sua comunicazione d’impresa, tenendo conto dei nuovi media digitali a disposizione e concentrandosi anche sul modo in cui l’azienda è riuscita a contrastare la crisi dovuta al lockdown in piena pandemia da Covid-19.
Resumo:
Il seguente elaborato propone un modello innovativo per la gestione della logistica distributiva nell’ultimo miglio, congiungendo l’attività di crowd-shipping con la presenza di Autonomous Vehicles, per il trasporto di prodotti all’interno della città. Il crowd-shipping utilizza conducenti occasionali, i quali deviano il loro tragitto in cambio di una ricompensa per il completamento dell’attività. Dall’altro lato, gli Autonomous Vehicles sono veicoli elettrici a guida autonoma, in grado di trasportare un numero limitato di pacchi e dotati di un sistema di sicurezza avanzato per garantire la fiducia nel trasporto. In primo luogo, nel seguente elaborato verrà mostrato il modello di ottimizzazione che congiunge i due attori principali in un unico ambiente, dove sono presenti un numero determinato di prodotti da muovere. Successivamente, poiché il problema di ottimizzazione è molto complesso e il numero di istanze valutabili è molto basso, verranno presentate due soluzioni differenti. La prima riguarda la metaeuristica chiamata Ant System, che cerca di avvicinarsi alle soluzioni ottime del precedente modello, mentre la seconda riguarda l’utilizzo di operatori di Local Search, i quali permettono di valutare soluzioni per istanze molto più grandi rispetto alla metaeuristica. Infine, i due modelli euristici verranno utilizzati per analizzare uno scenario che cerca di riprodurre una situazione reale. Tale scenario tenta di allocare strategicamente le risorse presenti e permette di dimostrare che gli Autonomous Vehicles riescono a supportare gli Occasional Drivers anche quando il numero di prodotti trasportabili è elevato. Inoltre, le due entità proposte riescono a soddisfare la domanda, garantendo un servizio che nel futuro potrebbe sostituire il tradizionale sistema di logistica distributiva last mile.
Resumo:
In questa relazione di tesi verrà affrontato il problema della locomozione naturale in ambienti virtuali che possiedono una grandezza maggiore dello spazio reale nel quale l'utente si muove. Negli anni sono stati sviluppati numerosi metodi di navigazione, ma tra tutti la locomozione naturale è il sistema che porta un livello di immersione maggiore nello spazio virtuale, più di qualsiasi altra tecnica. In questo lavoro di tesi verrà proposto un algoritmo in grado di favorire la locomozione naturale all'interno di lunghi spazi chiusi, andando a modificare la geometria dello spazio virtuale (che andrà ad assumere una forma circolare) e mantendendo comunque un certo grado di realismo dal punto di vista dell'utente. L'obiettivo è quello di tradurre uno spazio virtuale chiuso e lungo (caso comune: un corridoio) in una forma circolare inscritta in una stanza di 2x2m, con un approccio simile a quello degli impossible spaces, con l'obiettivo di studiare in futuro entro quale percentuale di sovrapposizione l'utente si accorge di trovarsi in una geometria impossibile. Nel primo capitolo verranno introdotti i concetti chiave di VR e AR, nonché un'introduzione all'Engine Unity e al software Blender. Nel secondo capitolo si tratterà di computer graphics, quindi si introdurranno i concetti base della grafica 3D con un focus sulla matematica alla base di ogni processo grafico. Nel terzo capitolo verrà affrontano il concetto di embodiment, quindi la percezione del proprio corpo, l'importanza dell'immersitvità dei sistemi virtuali e verrà descritto un paper precedentemente realizzato riguardante tale concetto. Nel capitolo quattro si parlerà del movimento all'interno dei sistemi di realtà virtuale, della locomozione naturale e delle tecniche per rendere tale metodo più accessibile. Nel capitolo cinque infine verrà descritto l'algoritmo realizzato e verranno mostrati i risultati.
Resumo:
Il presente elaborato è volto all’analisi di come viene pianificata la produzione in Fabiana Filippi spa e nello specifico al monitoraggio delle prestazioni dei fornitori di materie prime. L’attività di pianificazione della produzione viene infatti strutturata a partire dalle consegne che i fornitori confermano di riuscire a garantire; risulterebbe dunque inutile strutturare e pianificare una produzione se a monte non vengono monitorati i fornitori che ne permettono l’avvio. Proprio per questa ragione è stato introdotto uno strumento di monitoraggio dei fornitori che permetta di analizzarli completamente a 360°, sulla base di quattro parametri di riferimento: affidabilità di consegna, puntualità, qualità di consegna e rispetto delle quantità richieste. A ciascun fornitore è stata poi associata una classe (A, B, C) con lo scopo di individuare dei target minimi prestazionali che i fornitori appartenenti a ciascuna di esse devono raggiungere.Tali target minimi sono stati poi definiti a partire da un trade-off tra gli obiettivi prestazionali richiesti dall’azienda e i valori di prestazione medi ottenuti dai fornitori relativi ad una stessa classe. A partire dai valori prestazionali ottenuti di partenza (AS-IS), si è deciso di analizzare nello specifico la situazione di quattro differenti fornitori ai quali, sono state dapprima individuate le cause che determinavano un basso livello prestazionale e a partire da queste, trovate e poi applicate delle soluzioni migliorative al fine di elevare il livello prestazionale iniziale (TO-BE). I risultati ottenuti hanno permesso di dimostrare quanto sia migliorativo avere un sistema di monitoraggio continuo del livello di prestazione di fornitura che permetta dunque, qualora si registrino dei valori non soddisfacenti, di individuare delle soluzioni al fine di agevolare la fornitura e di conseguenza evitare ritardi di produzione.
Resumo:
Il quark top è una delle particelle fondamentali del Modello Standard, ed è osservato a LHC nelle collisioni a più elevata energia. In particolare, la coppia top-antitop (tt̄) è prodotta tramite interazione forte da eventi gluone-gluone (gg) oppure collisioni di quark e antiquark (qq̄). I diversi meccanismi di produzione portano ad avere coppie con proprietà diverse: un esempio è lo stato di spin di tt̄, che vicino alla soglia di produzione è maggiormente correlato nel caso di un evento gg. Uno studio che voglia misurare l’entità di tali correlazioni risulta quindi essere significativamente facilitato da un metodo di discriminazione delle coppie risultanti sulla base del loro canale di produzione. Il lavoro qui presentato ha quindi lo scopo di ottenere uno strumento per effettuare tale differenziazione, attraverso l’uso di tecniche di analisi multivariata. Tali metodi sono spesso applicati per separare un segnale da un fondo che ostacola l’analisi, in questo caso rispettivamente gli eventi gg e qq̄. Si dice che si ha a che fare con un problema di classificazione. Si è quindi studiata la prestazione di diversi algoritmi di analisi, prendendo in esame le distribuzioni di numerose variabili associate al processo di produzione di coppie tt̄. Si è poi selezionato il migliore in base all’efficienza di riconoscimento degli eventi di segnale e alla reiezione degli eventi di fondo. Per questo elaborato l’algoritmo più performante è il Boosted Decision Trees, che permette di ottenere da un campione con purezza iniziale 0.81 una purezza finale di 0.92, al costo di un’efficienza ridotta a 0.74.
Resumo:
Le stelle nate nelle galassie satelliti accresciute dalla MW durante il suo processo evolutivo, sono oggi mescolate nell'Alone Retrogrado della nostra Galassia, ma mantengono una coerenza chimica e dinamica che ci consente di identificarle e di ricostruirne l'origine. Tuttavia, investigare la chimica o la dinamica in maniera indipendente non è sufficiente per fare ciò. L'associazione di stelle a specifici eventi di merging basata esclusivamente sulla loro posizione nello spazio degli IoM può non essere univoca e portare quindi ad identificazioni errate o ambigue. Allo stesso tempo, la composizione chimica delle stelle riflette la composizone del gas della galassia in cui le stelle si sono formate, ma galassie evolutesi in maniera simile sono difficilmente distinguibili nei soli piani chimici. Combinare l'informazione chimica a quella dinamica è quindi necessario per ricostruire in maniera accurata la storia di formazione ed evoluzione della MW. In questa tesi è stato analizzato un campione di 66 stelle dell'Alone Retrogrado della MW (localizzate nei dintorni solari) combinando i dati fotometrici di Gaia e quelli spettroscopici ottenuti con PEPSI@LBT. L'obiettivo principale di questo lavoro è di associare univocamente le stelle di questo campione alle rispettive galassie progenitrici tramite l'utilizzo coniugato delle informazioni chimiche e cinematiche. Per fare questo, è stata prima di tutto ricostruita l'orbita di ognuna delle stelle. In seguito, l'analisi degli spettri dei targets ha permesso di ottenere le abbondanze chimiche. L'identificazione delle sottostrutture è stata effettuata attraverso un'analisi chemo-dinamica statisticamente robusta, ottenuta tramite l'applicazione di un metodo di Gaussian Mixture Model, e l'associazione finale ai relativi progenitori, nonchè la loro interpretazione in termini di strutture indipendenti, è stata eseguita accoppiando questa informazione con la composizione chimica dettagliata di ogni stella.
Resumo:
La presente sperimentazione ha avuto come obiettivo la formulazione di oli aromatizzati, ottenuti mediante la tecnica di co-frangitura delle olive con arancia, sottoprodotti dell’arancia, melagrana e pepe nero. In questo lavoro di tesi viene affrontata la definizione di olio aromatizzato, cioè un olio d’oliva arricchito con uno o più composti aromatici, come oli essenziali, spezie, erbe aromatiche o frutti. Inizialmente vengono esposte le principali tecniche di aromatizzazione. Successivamente vengono trattati i principali parametri di qualità per la classificazione merceologica degli oli, i composti volatili e i composti fenolici che caratterizzano questi prodotti, ed infine viene descritta la valutazione sensoriale degli oli d’oliva. I campioni di olio prodotti sono stati sottoposti ad analisi per la valutazione dello stato idrolitico, mediante determinazione titrimetrica dell’acidità libera e del contenuto di composti ad attività riducente tramite determinazione spettrofotometrica con reattivo di Folin-Ciocalteu. Infine, sono stati studiati i composti volatili degli oli aromatizzati prodotti, identificando e quantificando i principali attributi sensoriali mediante analisi descrittiva effettuata da un gruppo di assaggiatori addestrati. Dalle analisi eseguite sui campioni si è potuto riscontrare come gli oli prodotti non abbiano problemi di degradazione idrolitica, possiedano un contenuto medio/alto di composti fenolici e siano caratterizzati dalla presenza di attributi secondari positivi.
Resumo:
L’innovazione tecnologica nell’ambito alimentare ha portato alla realizzazione di nuovi prodotti al fine di far fronte all’incremento demografico e ai numerosi problemi che ne conseguono, come ad esempio quello della sostenibilità ambientale. Tra questi prodotti troviamo sia alternative che si basano su proteine già esistenti in natura, come ad esempio prodotti a base di insetti, sia nuove fonti di proteine prodotte in laboratorio: questo è il caso della carne coltivata in vitro, tessuto muscolare ricavato a partire da colture cellulari in grado di ridurre drasticamente il numero di animali allevati e macellati. In questo elaborato vengono discusse le principali tecnologie produttive per la realizzazione della carne in vitro e si analizzano gli aspetti critici legati all’accettazione di questo tipo di prodotti da parte dei consumatori. Per valutare l’opinione dei consumatori è stato somministrato un sondaggio che includeva 12 brevi domande a 343 potenziali consumatori di carne coltivata . Dall’analisi dei dati raccolti, emerge una generale “neofobia” nei confronti della carne coltivata, che può essere causata da motivi legati alla scarsa informazione e alla conseguente mancanza di fiducia riguardo alle tecnologie produttive innovative. Un importante aspetto emerso nel corso dello studio è rappresentato dalla differenza delle opinioni di consumatori appartenenti a diverse categorie, come ad esempio i consumatori abituali di prodotti a base di carne e, dall’altra parte, le persone che hanno eliminato dalla loro dieta abituale i prodotti di origine animale. È essenziale comprendere le radici della neofobia che le diverse categorie di consumatori possono manifestare nei confronti di alimenti innovativi come la carne coltivata, per realizzare un’efficace strategia comunicativa che faccia leva sulle maggiori barriere psicologiche delle persone, sostituendole con informazioni riguardo ai benefici che una transizione verso questo tipo di prodotti potrebbe apportare.
Resumo:
Il 1° gennaio 2022 è entrato in vigore il nuovo Regolamento (UE) 848/2018 relativo alla produzione biologica e all'etichettatura dei prodotti biologici. La filiera vitivinicola biologica vanta una crescita vigorosa delle superfici coltivate a uva biologica sia in Italia che negli altri Paesi dell'Unione. Nell'elaborato vengono descritte ed analizzate le novità a carattere generale introdotte con il nuovo regolamento, focalizzando l'attenzione su alcune pratiche enologiche quali l'elettrodialisi e l'utilizzo di enzimi. Inoltre, vengono analizzati e discussi alcuni casi studio di certificazione di gruppo, dai quali emergono le potenziali criticità legate ai requisiti imposti dal regolamento per la partecipazione degli operatori ai gruppi. In questo lavoro viene trattato anche il tema della sostenibilità della filiera vitivinicola presentando i principali standard di certificazione privati.
Resumo:
Background: la lesione del LCA è l’infortunio più frequente per quanto riguarda l’articolazione del ginocchio e nella maggior parte dei casi viene trattato tramite intervento chirurgico di ricostruzione del legamento stesso. I pazienti vengono distinti in coper e non-coper, in base alla stabilità dinamica dell’articolazione in seguito al trauma: i primi possono essere sottoposti ad un programma di allenamento neuromuscolare progressivo e della forza (NMST) di 10 sessioni, che ha l’obiettivo di ripristinare le corrette risposte neuromuscolari e il recupero della forza muscolare tramite esercizi pliometrici ed esercizi neuromuscolari avanzati. Obiettivi: indagare la conoscenza e l’utilizzo di questo tipo di trattamento da parte di fisioterapisti e chirurghi ortopedici, oltre che la collaborazione tra queste due categorie di professionisti. Materiale e metodi: 471 fisioterapisti e 106 chirurghi ortopedici sono stati sottoposti ad un questionario online, tramite l’utilizzo della piattaforma “Moduli Google©”, in lingua italiana, nel periodo dal 10/10/2021 al 10/01/2022. Il questionario prevedeva 2 domande a risposta aperta e 10 domande con più opzioni di scelta. Risultati: dallo studio è emerso che solo il 18% dei fisioterapisti e il 22% degli ortopedici utilizza lo screening nella pratica clinica quotidiana avendone sufficiente familiarità. Inoltre, il 30% dei fisioterapisti si affida spesso ad un ortopedico di fiducia e il 30% dei chirurghi si affida sempre ad un fisioterapista di fiducia. Per quanto riguarda i professionisti esperti di LCA, 4 dei 22 fisioterapisti e 16 dei 38 ortopedici affermano di applicare lo screening nella pratica clinica quotidiana avendone sufficiente familiarità. Conclusione: i risultati mostrano una ridotta conoscenza e applicazione dello screening sia da parte dei fisioterapisti che dei chirurghi ortopedici. Emerge anche una scarsa collaborazione tra le due classi di professionisti, soprattutto tra quelli non esperti di LCA.
Resumo:
Introduzione Lo schema corporeo è la rappresentazione sensori-motoria del corpo che elabora input propriocettivi, somatosensoriali e visivi per guidare le azioni. Poiché è essenziale nel movimento, è importante considerare il valore che ha un intervento sullo schema corporeo nella riabilitazione motoria. Studiare i diversi interventi in letteratura, può essere un interessante primo approccio all’argomento per un fisioterapista. Obiettivi Il fine di questa Scoping Review è quello di identificare in letteratura gli interventi riabilitativi, in ambito fisioterapico, che agiscono sullo schema corporeo del paziente osservandone poi, le popolazioni e gli outcome. Metodi Nel periodo tra luglio e ottobre 2022, si sono interrogate le seguenti banche dati: PubMed, Cochrane Library, PEDro, Scopus, Trip Medical Database. La ricerca ha prodotto 138 risultati, selezionati poi con i seguenti criteri di eleggibilità: lingua inglese o italiana, testo integrale, intervento riabilitativo rivolto allo schema corporeo, descrizione dell'outcome relativo e intervento di competenza fisioterapica. Hanno soddisfatto i criteri fissati 17 studi. Risultati All'interno dei 17 studi, sono stati individuati 17 interventi diversi con un'azione sullo schema corporeo; lo spettro di popolazione osservato include pazienti eterogenei per numero, età e condizione. Gli outcome descritti sono: modifiche nella rappresentazione corporea, miglioramento della performance motoria, riduzione del dolore, incremento del ROM, diminuzione della paura del movimento, del distress psicologico e aumento della qualità della vita. Conclusioni La revisione ha mostrato grande eterogeneità negli interventi, nelle popolazioni e negli outcome. La presente Scoping Review, fornisce una panoramica di come la letteratura tratti il tema della riabilitazione dello schema corporeo in fisioterapia, mostra diverse tipologie di trattamento e lascia intuire le potenzialità di questo tipo di intervento sulla riabilitazione del paziente.
Resumo:
Il serverless é un paradigma del cloud computing al giorno d’oggi sempre più diffuso; si basa sulla scrittura di funzioni stateless in quanto le attività relative alla loro manutenzione e scalabilità fanno capo al provider dei servizi cloud. Lo sviluppatore deve quindi solamente concentrarsi sulla creazione del prodotto. Questo lavoro si apre con un’analisi del cloud computing introducendo i principali modelli di applicazione, passando dal parlare di servizi cloud, con le varie sottocategorie e i relativi utilizzi per poi arrivare a parlare di serverless. Si é scelto di focalizzarsi sulla piattaforma Google con la suite: Google Cloud Platform. In particolare, si parlerà di Google Cloud Functions, una nuova offerta serverless della compagnia, di recente sviluppo e in continuo aggiornamento. Partiremo dalle prime release, analizzeremo l’ambiente di sviluppo, i casi d’uso, vantaggi, svantaggi, parleremo poi di portabilità e verranno mostrati alcuni esempi del loro utilizzo.
Resumo:
Il lavoro di questa tesi ha riguardato lo studio e l'analisi acustica del sito della Scuola di Ingegneria di Bologna in Via Terracini con l’obiettivo di trovare una soluzione per mitigare il disturbo sonoro rilevato nella zona. Dalle diverse misurazioni fonometriche si è stabilita l’entità numerica di partenza che ha richiesto un’implentazione attraverso delle misurazioni di tipo qualitativo con delle registrazioni in formato wave ed annotando al contempo il numero ed il tipo di veicoli che circolavano. Attraverso l'implementazione dei vari dati ricavati dai rilievi delle diverse sezioni, è stata convalidata la consapevolezza del principale problema dell'area: l'inquinamento acustico causato dal traffico stradale. Lo studio è proseguito monitorando le bande di frequenza che interessavano questo tipo di rumore e quantificando il livello in dB che superava i limiti imposti dalla normativa. Non essendo possibile ridurre il traffico acustico direttamente alla fonte, si è optato per misure di protezione del recettore che si sono configurate nell'inserimento dell'asfalto fonoassorbente e nella progettazione di una barriera acustica. Dopo aver ricercato i diversi tipi di barriere, si è deciso per la barriera con cristalli sonici. Si è indagato quali fattori influissero sulle proprietà dei cristalli sonici: la distribuzione geometrica, la frazione di riempimento e la dimensione degli elementi periodici influenzano la formazione delle bande proibite, la loro larghezza e quindi la capacità fonoisolante del cristallo sonico. In base all'altezza degli edifici e alla loro distanza dalla strada, Via Terracini è stata suddivisa in quattro sezioni. Infine, per le varie sezioni, è stato riprodotto il grafico frequenza/perdita di inserzione che ha confermato una riduzione del livello sonoro di quasi 15 dB. Il progetto ha previsto anche il dimensionamento e la verifica delle azioni statiche (carichi e azione del vento) e dell'azione sismica del sistema strutturale della barriera.
Resumo:
Nel presente elaborato si analizzeranno le prestazioni del linguaggio di programmazione parallela Chapel sul kernel Integer Sort di NAS Parallel Benchmarks. Questo algoritmo, a livello pratico, è utilizzato per studi o applicazioni sui metodi particellari. Saranno introdotti i concetti fondamentali di programmazione parallela e successivamente illustrate le principali caratteristiche di MPI e Chapel. Verranno poi approfonditi Integer Sort e i rispettivi dettagli implementativi, concludendo con un'analisi di prestazioni dei due linguaggi sul kernel preso in esame.
Resumo:
La tecnologia gioca un ruolo importante nella vita della maggior parte delle persone, ma come possiamo assicurarci che migliori effettivamente la vita piuttosto che distrarci da essa? Con gli smartphone di oggi, i social media e i flussi infiniti di contenuti, molte persone sono pronte a condannare la tecnologia sulla base della loro convinzione che questi prodotti siano dannosi per la salute mentale e il benessere. Ma concentrarsi solo su questi effetti potenzialmente dannosi non ci aiuta a raccogliere tutti i vantaggi che questi strumenti hanno da offrire, gestendo anche i loro rischi. Da qui nasce il digital wellbeing: un termine utilizzato per descrivere l’impatto delle tecnologie e dei servizi digitali sulla salute mentale, fisica, sociale ed emotiva delle persone. Lo scopo di questa tesi è quello di aumentare la consapevolezza sul reale utilizzo dei dispositivi e sulle proprie abitudini salutari attraverso la sonificazione, un processo di traduzione dei dati in suono, a volte in un contesto musicale utilizzato come metodo per superare le barriere della comunicazione scientifica. Questo metodo è particolarmente vantaggioso per la sua capacità di rappresentare i dati scientifici per le persone con disabilità visive, che spesso non sono in grado di interagire con le tradizionali visualizzazioni dei dati. Per raggiungere l'obiettivo della tesi viene preso in esame una solo tipologia di dispositivi, gli iPhone, per la quale verrà creata un'applicazione che riesca ad ottenere i dati sulla salute, sulla forma fisica e di utilizzo dello smartphone.