52 resultados para Ottimizzazione CVT biciclette elettriche
Resumo:
Questo studio, che è stato realizzato in collaborazione con Hera, è un'analisi della gestione dei rifiuti a Bologna. La ricerca è stata effettuata su diversi livelli: un livello strategico il cui scopo è quello di identificare nuovi metodi per la raccolta dei rifiuti in funzione delle caratteristiche del territorio della città, un livello analitico che riguarda il miglioramento delle applicazioni informatiche di supporto, e livello ambientale che riguarda il calcolo delle emissioni in atmosfera di veicoli adibiti alla raccolta e al trasporto dei rifiuti. innanzitutto è stato necessario studiare Bologna e lo stato attuale dei servizi di raccolta dei rifiuti. È incrociando questi componenti che in questi ultimi tre anni sono state effettuate modifiche nel settore della gestione dei rifiuti. I capitoli seguenti sono inerenti le applicazioni informatiche a sostegno di tali attività: Siget e Optit. Siget è il programma di gestione del servizio, che attualmente viene utilizzato per tutte le attività connesse alla raccolta di rifiuti. È un programma costituito da moduli diversi, ma di sola la gestione dati. la sperimentazione con Optit ha aggiunto alla gestione dei dati la possibilità di avere tali dati in cartografia e di associare un algoritmo di routing. I dati archiviati in Siget hanno rappresentato il punto di partenza, l'input, e il raggiungimento di tutti punti raccolta l'obiettivo finale. L'ultimo capitolo è relativo allo studio dell'impatto ambientale di questi percorsi di raccolta dei rifiuti. Tale analisi, basata sulla valutazione empirica e sull'implementazione in Excel delle formule del Corinair mostra la fotografia del servizio nel 2010. Su questo aspetto Optit ha fornito il suo valore aggiunto, implementando nell'algoritmo anche le formule per il calcolo delle emissioni.
Resumo:
Il primo studio ha verificato l'affidabilità del software Polimedicus e gli effetti indotti d'allenamento arobico all’intensità del FatMax. 16 soggetti sovrappeso, di circa 40-55anni, sono stati arruolati e sottoposti a un test incrementale fino a raggiungere un RER di 0,95, e da quel momento il carico è stato aumentato di 1 km/ h ogni minuto fino a esaurimento. Successivamente, è stato verificato se i valori estrapolati dal programma erano quelli che si possono verificare durante a un test a carico costante di 1ora. I soggetti dopo 8 settimane di allenamento hanno fatto un altro test incrementale. Il dati hanno mostrato che Polimedicus non è molto affidabile, soprattutto l'HR. Nel secondo studio è stato sviluppato un nuovo programma, Inca, ed i risultati sono stati confrontati con i dati ottenuti dal primo studio con Polimedicus. I risultati finali hanno mostrato che Inca è più affidabile. Nel terzo studio, abbiamo voluto verificare l'esattezza del calcolo del FatMax con Inca e il test FATmaxwork. 25 soggetti in sovrappeso, tra 40-55 anni, sono stati arruolati e sottoposti al FATmaxwork test. Successivamente, è stato verificato se i valori estrapolati da INCA erano quelli che possono verificarsi durante un carico di prova costante di un'ora. L'analisi ha mostrato una precisione del calcolo della FatMax durante il carico di lavoro. Conclusione: E’ emersa una certa difficoltà nel determinare questo parametro, sia per la variabilità inter-individuale che intra-individuale. In futuro bisognerà migliorare INCA per ottenere protocolli di allenamento ancora più validi.
Resumo:
Ottimizzazione di un protocollo di anticoagulazione regionale con citrato in CRRT Introduzione: La necessità di un'anticoagulazione continua e l'ipofosforemia in corso di trattamento sono problemi costranti in corso di CRRT. Il nostro studio ha cercato di dimostrare l'efficacia e la sicurezza dell'anticoagulazione regionale con citrato in CVVH basato sull'utilizzo di una soluzione di citrato (18 mmol/L) associata ad una soluzione di reinfusione contenente fosfato, recentemente disponibile in commercio, al fine di ridurre l'ipofosfatemia in corso di CRRT. Metodi: Abbiamo utilizzato il nostro protocollo basato sull'utilizzo di una concentrazione di citrato contenente 18 mmol/l associata ad una soluzione di reinfusione contenente fosfato in un piccolo gruppo di pazienti ricoverati in terapia intensiva post-cardiochirurgica, sottoposti a CRRT per insufficienza renale acuta. Risultati: Il nostro protocollo ha garantito un'adeguata durata del circuito ed un ottimo controllo dell'equilibrio acido-base in ogni paziente. E' stata necessaria solo una minima supplementazione di fosforo in alcuni dei pazienti trattati. Conclusioni: Il nostro protocollo basato sull' utilizzo di una soluzione a concentrazione di citrato maggiore (18 mmol/l), permette un miglior controllo dell'equilibrio acido-base rispetto all'utilizzo della soluzione a più bassa concentrazione di citrato. L'uso di una minore dose di citrato ed il mantenimento di un target maggiore di calcio ionizzato all'interno del circuito sono comunque associati ad un'adeguata durata del circuito. I livelli di fosforemia sono rimasti sostanzialmente stabili nella maggior parte dei pazienti trattati, grazie alla presenza di fosfato nella soluzione utilizzata come reinfusione in post-diluizione.
Resumo:
Tradizionalmente, l'obiettivo della calibrazione di un modello afflussi-deflussi è sempre stato quello di ottenere un set di parametri (o una distribuzione di probabilità dei parametri) che massimizzasse l'adattamento dei dati simulati alla realtà osservata, trattando parzialmente le finalità applicative del modello. Nel lavoro di tesi viene proposta una metodologia di calibrazione che trae spunto dell'evidenza che non sempre la corrispondenza tra dati osservati e simulati rappresenti il criterio più appropriato per calibrare un modello idrologico. Ai fini applicativi infatti, può risultare maggiormente utile una miglior rappresentazione di un determinato aspetto dell'idrogramma piuttosto che un altro. Il metodo di calibrazione che viene proposto mira a valutare le prestazioni del modello stimandone l'utilità nell'applicazione prevista. Tramite l'utilizzo di opportune funzioni, ad ogni passo temporale viene valutata l'utilità della simulazione ottenuta. La calibrazione viene quindi eseguita attraverso la massimizzazione di una funzione obiettivo costituita dalla somma delle utilità stimate nei singoli passi temporali. Le analisi mostrano come attraverso l'impiego di tali funzioni obiettivo sia possibile migliorare le prestazioni del modello laddove ritenute di maggior interesse per per le finalità applicative previste.
Resumo:
Il progetto di dottorato che verrà presentato in questa tesi è focalizzato sullo sviluppo di un metodo sperimentale per la produzione di protesi personalizzate utilizzando il processo di fabbricazione additiva di Selective Laser Melting (SLM). L’obiettivo è quello di definire una condizione di processo ottimizzata per applicazioni in ambito chirurgico che possa essere generalizzabile, ovvero che ne garantisca la riproducibilità al variare dell’anatomia del paziente e che rappresenti la base per estendere il metodo ad altre componenti protesiche. Il lavoro si è sviluppato lungo due linee principali, la cui convergenza ha permesso di realizzare prototipi di protesi complete utilizzando un solo processo: da una parte la produzione di componenti a massima densità per il raggiungimento di elevate resistenze meccaniche, buona resistenza ad usura e corrosione e controllo di tensioni residue e deformazione delle parti stampate. Dall’altra si sono studiate strutture reticolari a geometria e porosità controllata per favorire l’osteointegrazione della componente protesica post impianto. In questo studio sono stati messe a confronto le possibili combinazioni tra parametri di processo e sono state individuate le correlazioni con le proprietà finali dei componenti stampati. Partendo da queste relazioni si sono sviluppate le strategie tecnologiche per la progettazione e la produzione dei componenti. I test sperimentali svolti e i risultati ottenuti hanno dimostrato la fattibilità dell’utilizzo del processo SLM per la produzione di protesi personalizzate e sono stati fabbricati i primi prototipi funzionali. La fabbricazione di protesi personalizzate richiede, però, anche la progettazione e la produzione di strumentario chirurgico ad hoc. Per questo motivo, parallelamente allo studio della lega di Cromo Cobalto, sono stati eseguiti i test anche su campioni in INOX 316L. Anche in questo caso è stato possibile individuare una finestra operativa di processo che garantisse proprietà meccaniche comparabili, e in alcuni casi superiori, a quelle ottenute con processi convenzionali.
Resumo:
L’attività svolta durante il dottorato è stata incentrata su due tematiche riguardanti: (i) la modifica della composizione chimica delle classiche leghe di alluminio da fonderia per incrementarne la resistenza e stabilità termica; (ii) lo studio del comportamento a fatica di acciai innovativi alto-resistenziali, allo scopo di valutarne il loro utilizzo per la produzione di alberi motore e distribuzione in sostituzione dei tradizionali acciai utilizzati dopo bonifica e trattamento superficiale di nitrurazione. La messa a punto di una lega di alluminio da fonderia con elevata resistenza in temperatura ha richiesto, oltre all’individuazione della composizione chimica, l’ottimizzazione del trattamento termico e una completa caratterizzazione meccanica statica a fatica sia a temperatura ambiente sia a 200°C. L’attività ha permesso di sviluppare una lega, ottenuta aggiungendo 1,3% in peso di rame alla classica lega A357 (Al-Si-Mg), cha ha mostrato avere proprietà meccaniche superiori a quelle delle tradizionali leghe Al-Si-Mg-Cu quali la A354 e C355 sia a temperatura ambiente che a 200 °C dopo lunga esposizione in temperatura. Per quanto riguarda gli acciai innovativi, dopo una preliminare analisi di mercato per individuare quali acciai potessero essere oggetto di studio, è stato valutato come migliorarne le prestazioni a fatica, anche in presenza d’intaglio, attraverso la scelta del trattamento termico più opportuno e del processo di pallinatura. I risultati delle caratterizzazioni microstrutturale e meccanica svolte hanno permesso di individuare due acciai (nomi commerciali K890 e ASP2017) ottenuti per metallurgia delle polveri, ad oggi utilizzati solo per la produzione di stampi e/o utensili, in grado di sostituire gli acciai con cui vengono oggi realizzati i componenti, senza la necessità di eseguire il trattamento di nitrurazione
Resumo:
The growing market of electrical cars, portable electronics, photovoltaic systems..etc. requires the development of efficient, low-cost, and low environmental impact energy storage devices (ESDs) including batteries and supercapacitors.. Due to their extended charge-discharge cycle, high specific capacitance, and power capabilities supercapacitors are considered among the most attractive ESDs. Over the last decade, research and development in supercapacitor technology have accelerated: thousands of articles have been published in the literature describing the electrochemical properties of the electrode materials and electrolyte in addition to separators and current collectors. Carbon-based supercapacitor electrodes materials have gained increasing attention due to their high specific surface area, good electrical conductivity, and excellent stability in harsh environments, as well as other characteristics. Recently, there has been a surge of interest in activated carbon derived from low-cost abundant sources such as biomass for supercapacitor electrode materials. Also, particular attention was given to a major challenging issue concerning the substitution of organic solutions currently used as electrolytes due to their highest electrochemical stability window even though their high cost, toxicity, and flammability. In this regard, the main objective of this thesis is to investigate the performances of supercapacitors using low cost abundant safe, and low environmental impact materials for electrodes and electrolytes. Several prototypes were constructed and tested using natural resources through optimization of the preparation of appropriate carbon electrodes using agriculture by-products waste or coal (i.e. Argan shell or Anthracite from Jerrada). Such electrodes were tested using several electrolyte formulations (aqueous and water in salt electrolytes) beneficing their non-flammability, lower cost, and environmental impact; the characteristics that provide a promising opportunity to design safer, inexpensive, and environmentally friendly devices compared to organic electrolytes.
Resumo:
I pazienti affetti da patologie oncologiche avanzate hanno un'esperienza di sintomi multipli spesso concomitanti tra loro. Lo scopo di questo progetto è quello di valutare come, nel contesto di un’ambulatorio integrato di Radioterapia e Cure Palliative (rep), sia possibile descrivere e quantificare i sintomi riportati dal paziente attraverso uno strumento di analisi convalidato, nello specifico l’Edmonton Symptom Assessment System (ESAS) al fine di costruire una proposta terapeutica ottimizzata per il singolo paziente. Da aprile 2016 ad aprile 2020, sono stati analizzati gli accessi al rep per un totale di 519 accessi, quindi abbiamo selezionato solo le visite dei pazienti che avevano completato totalmente lo strumento ESAS per la valutazione dei sintomi. La popolazione in studio era quindi composta da 212 pazienti, di questi 120 erano uomini, 92 erano donne, l'età media era di 72 anni, del totale il 36% era stato sottoposto a radioterapia. I principali risultati ottenuti dall'analisi dei dati relativi alla popolazione in studio sono stati i seguenti: 1) il 25% dei pazienti muore entro 2,2 mesi, il 60% entro 6 mesi; 2) la popolazione maschile ha un rischio di morte più elevato rispetto alla popolazione femminile; 3) Esiste una chiara differenza negli indici di correlazione tra la popolazione femminile e quella maschile 4) I principali sintomi correlati sono: dolore, mancanza di appetito, ansia, sonnolenza; 5) Il sintomo del dolore non è associato ad un aumento del rischio di morte, mentre la mancanza di appetito e sonnolenza sono associati ad un aumento del rischio di morte. In conclusione, i dati a nostra disposizione hanno dimostrato che un'analisi approfondita dei sintomi attraverso lo strumento ESAS è fattibile e necessaria portando informazioni fondamentali per una gestione ottimale del paziente, dandoci la possibilità di muoverci verso l'opportunità di trattamenti sempre più personalizzati e individualizzati in base alle caratteristiche dei singoli pazienti.
Resumo:
Negli impianti utilizzati per la produzione di energia elettrica che sfruttano l'energia solare, quali la tecnologia solare a concentrazione (Solare Termodinamico) sviluppata da ENEA, per minimizzare le dispersioni di calore è necessaria una elevata selettività spettrale. Per ottimizzare l'efficienza dell'impianto è quindi necessario lo sviluppo di materiali innovativi, in grado di minimizzare la quantità di energia dispersa per riflessione. In questo studio, per incrementare la trasmittanza solare dei componenti in vetro presenti nei tubi ricevitori dell'impianto, sono state utilizzate tipologie diverse di rivestimenti antiriflesso (multistrato e a singolo strato poroso). I rivestimenti sono stati ottenuti mediante via umida, con tecnica di sol-gel dip-coating. I sol coprenti sono stati preparati da alcossidi o sali metallici precursori degli ossidi che costituiscono il rivestimento. Sono state approfondite sia la fase di sintesi dei sol coprenti, sia la fase di deposizione sul substrato, che ha richiesto la progettazione e realizzazione di una apparecchiatura prototipale, ossia di un dip-coater in grado di garantire un accurato controllo della velocità di emersione e dell'ambiente di deposizione (temperatura e umidità). Il materiale multistrato applicato su vetro non ha migliorato la trasmittanza del substrato nell'intervallo di lunghezze d'onda dello spettro solare, pur presentando buone caratteristiche antiriflesso nell'intervallo dell'UV-Vis. Al contrario, l'ottimizzazione del rivestimento a base di silice porosa, ha portato all'ottenimento di indici di rifrazione molto bassi (1.15 to 1.18) e ad un incremento della trasmittanza solare dal 91.5% al 96.8%, efficienza superiore agli attuali rivestimenti disponibili in commercio.
Resumo:
The research activity carried out during the PhD course in Electrical Engineering belongs to the branch of electric and electronic measurements. The main subject of the present thesis is a distributed measurement system to be installed in Medium Voltage power networks, as well as the method developed to analyze data acquired by the measurement system itself and to monitor power quality. In chapter 2 the increasing interest towards power quality in electrical systems is illustrated, by reporting the international research activity inherent to the problem and the relevant standards and guidelines emitted. The aspect of the quality of voltage provided by utilities and influenced by customers in the various points of a network came out only in recent years, in particular as a consequence of the energy market liberalization. Usually, the concept of quality of the delivered energy has been associated mostly to its continuity. Hence the reliability was the main characteristic to be ensured for power systems. Nowadays, the number and duration of interruptions are the “quality indicators” commonly perceived by most customers; for this reason, a short section is dedicated also to network reliability and its regulation. In this contest it should be noted that although the measurement system developed during the research activity belongs to the field of power quality evaluation systems, the information registered in real time by its remote stations can be used to improve the system reliability too. Given the vast scenario of power quality degrading phenomena that usually can occur in distribution networks, the study has been focused on electromagnetic transients affecting line voltages. The outcome of such a study has been the design and realization of a distributed measurement system which continuously monitor the phase signals in different points of a network, detect the occurrence of transients superposed to the fundamental steady state component and register the time of occurrence of such events. The data set is finally used to locate the source of the transient disturbance propagating along the network lines. Most of the oscillatory transients affecting line voltages are due to faults occurring in any point of the distribution system and have to be seen before protection equipment intervention. An important conclusion is that the method can improve the monitored network reliability, since the knowledge of the location of a fault allows the energy manager to reduce as much as possible both the area of the network to be disconnected for protection purposes and the time spent by technical staff to recover the abnormal condition and/or the damage. The part of the thesis presenting the results of such a study and activity is structured as follows: chapter 3 deals with the propagation of electromagnetic transients in power systems by defining characteristics and causes of the phenomena and briefly reporting the theory and approaches used to study transients propagation. Then the state of the art concerning methods to detect and locate faults in distribution networks is presented. Finally the attention is paid on the particular technique adopted for the same purpose during the thesis, and the methods developed on the basis of such approach. Chapter 4 reports the configuration of the distribution networks on which the fault location method has been applied by means of simulations as well as the results obtained case by case. In this way the performance featured by the location procedure firstly in ideal then in realistic operating conditions are tested. In chapter 5 the measurement system designed to implement the transients detection and fault location method is presented. The hardware belonging to the measurement chain of every acquisition channel in remote stations is described. Then, the global measurement system is characterized by considering the non ideal aspects of each device that can concur to the final combined uncertainty on the estimated position of the fault in the network under test. Finally, such parameter is computed according to the Guide to the Expression of Uncertainty in Measurements, by means of a numeric procedure. In the last chapter a device is described that has been designed and realized during the PhD activity aiming at substituting the commercial capacitive voltage divider belonging to the conditioning block of the measurement chain. Such a study has been carried out aiming at providing an alternative to the used transducer that could feature equivalent performance and lower cost. In this way, the economical impact of the investment associated to the whole measurement system would be significantly reduced, making the method application much more feasible.
Resumo:
Con questo lavoro di tesi si è cercato da un lato di dare un contributo al settore dei sensori chimici, caratterizzando e sviluppando diversi sistemi che presentano promettenti proprietà per l’utilizzo nella realizzazione di sensori luminescenti, e dall’altro di studiare sistemi di nanoparticelle di oro per identificarne e caratterizzarne i processi che portano all’interazione con un’unità fluorescente di riferimento, il pirene. Quest’ultima parte della tesi, sviluppata nel capitolo 4, sebbene possa apparire “slegata” dall’ambito della sensoristica, in realtà non lo è in quanto il lavoro di ricerca svolto rappresenta una buona base di partenza per lo sviluppo di sistemi di nanoparticelle metalliche con un possibile impiego in campo biomedico e diagnostico. Tutte le specie studiate, seppur molto diverse tra loro, posseggono quindi buone caratteristiche di luminescenza ed interessanti capacità di riconoscimento, più o meno selettivo, di specie in soluzione o allo stato gassoso. L’approccio generale che è stato adottato comporta una iniziale caratterizzazione in soluzione ed una susseguente ottimizzazione del sistema mirata a passare al fissaggio su supporti solidi in vista di possibili applicazioni pratiche. A tal proposito, nel capitolo 3 è stato possibile ottenere un monostrato organico costituito da un recettore (un cavitando), dotato di una parte fluorescente le cui proprietà di luminescenza sono sensibili alla presenza di una funzione chimica che caratterizza una classe di analiti, gli alcoli. E’ interessante sottolineare come lo stesso sistema in soluzione si comporti in maniera sostanzialmente differente, mostrando una capacità di segnalare l’analita molto meno efficiente, anche in funzione di una diversa orientazione della parte fluorescente. All’interfaccia solido-gas invece, l’orientamento del fluoroforo gioca un ruolo chiave nel processo di riconoscimento, e ottimizzando ulteriormente il setup sperimentale e la composizione dello strato, sarà possibile arrivare a segnalare quantità di analita sempre più basse. Nel capitolo 5 invece, è stato preso in esame un sistema le cui potenzialità, per un utilizzo come sonda fluorescente nel campo delle superfici di silicio, sembra promettere molto bene. A tal proposito sono stati discussi anche i risultati del lavoro che ha fornito l’idea per la concezione di questo sistema che, a breve, verrà implementato a sua volta su superficie solida. In conclusione, le ricerche descritte in questa tesi hanno quindi contribuito allo sviluppo di nuovi chemosensori, cercando di migliorare sia le proprietà fotofisiche dell’unità attiva, sia quelle dell’unità recettrice, sia, infine, l’efficienza del processo di traduzione del segnale. I risultati ottenuti hanno inoltre permesso di realizzare alcuni prototipi di dispositivi sensoriali aventi caratteristiche molto promettenti e di ottenere informazioni utili per la progettazione di nuovi dispositivi (ora in fase di sviluppo nei laboratori di ricerca) sempre più efficienti, rispondendo in tal modo alle aspettative con cui questo lavoro di dottorato era stato intrapreso.
Resumo:
Lo scompenso cardiaco è una sindrome clinica complessa di notevole prevalenza ed incidenza nella popolazione generale, con elevata mortalità e morbidità. Le numerose alterazioni strutturali e funzionali che lo caratterizzano sono in grado di generare contemporaneamente diversi tipi di alterazioni del ritmo: dalle tachiaritmie ventricolari/sopraventricolari alle turbe della conduzione dell’impulso con bradi-aritmie e dissincronie di contrazione. La cardioversione della fibrillazione atriale e la resincronizzazione cardiaca rappresentano due terapie elettriche molto importanti in tale contesto. Le modificazioni emodinamiche, funzionali e neuro-ormonali indotte da tali trattamenti, tanto in acuto che a medio/lungo termine, possono generare numerose informazioni sulla fisio-patologia di questa sindrome. Il progetto scientifico alla base del presente manoscritto è costituito da due studi volti ad affrontare separatamente le tematiche accennate. Il primo studio è stato focalizzato sulle modificazioni indotte in 38 pazienti dalla terapia di resincronizzazione cardiaca sui parametri di circolazione periferica. I risultati ottenuti evidenziano come il trattamento consenta un incremento del flusso muscolare, soprattutto in chi presenterà un rimodellamento ventricolare inverso. La diversa eziologia sottostante (ischemica vs. non ischemica) appare influenzare i parametri relativi alla circolazione periferica tanto in acuto, quanto in cronico. Il diverso comportamento in merito alle variabili della circolazione periferica nelle valutazioni seriate suggerisce che la terapia di resincronizzazione cardiaca abbia, principalmente nei pazienti responders, effetti non solo “centrali”, e che essi non siano puramente meccanici ma mediati da fattori probabilmente di natura neuro-ormonale. Il secondo studio si è occupato della cardioversione elettrica esterna di fibrillazione atriale, un’aritmia che presenta strette relazioni con l’insufficienza cardiaca. 242 pazienti sono stati sottoposti a cardioversione elettrica esterna con onda bifasica, utilizzando due 1 diverse configurazioni di erogazione dell’energia: antero-posteriore con patch adesivi e antero-apicale con piastre standard. Il ripristino del ritmo sinusale è stato ottenuto in oltre l’80% dei pazienti già col primo shock a 120J. Sebbene fra le due metodiche non si evidenzi una significatività in termini di efficacia, i risultati ottenuti suggeriscono che la scelta della specifica configurazione di shock dovrebbe prendere in considerazione anche alcune variabili biometriche: peso, altezza e superficie corporea del paziente. Il ripristino ed il mantenimento del ritmo sinusale inducono un’importante modificazione della concentrazione di NT-pro-BNP. Un’elevata attivazione neuro-ormonale pre-procedura predispone alle recidive a medio-lungo termine, mentre le recidive nel breve-medio periodo appaiono influenzate da tale fattore solo in corso di profilassi anti-aritmica per il mantenimento del ritmo sinusale. In conclusione i risultati del progetto di ricerca sottolineano come trattamenti mirati a parametri strettamente cardiaci (ritmo e conduzione dell’impulso) siano in grado di determinare importanti modificazioni sugli equilibri emodinamici e neuro-ormonali dell’intero organismo, confermando la stretta relazione tra questi parametri e l’evoluzione del quadro clinico.
Resumo:
Il lavoro di ricerca tenta di inquadrare sotto nuove prospettive una problematica ormai classica all’interno della semiotica della pubblicità: l’analisi dello spot. I punti chiave del lavoro – e la pretesa di una certa differenza rispetto a lavori con oggetti affini – consistono sostanzialmente in tre aspetti. Innanzitutto, vi è un ritorno alle origini flochiane nella misura in cui non solo il contesto complessivo e le finalità che la ricerca si propone sono fortemente ancorati all’interno di obiettivi di marketing, ma tutto lo studio nella sua interezza nasce dal dialogo concreto tra metodologia di analisi semiotica e prassi concreta all’interno degli istituti di ricerca di mercato. La tesi non presenta quindi una collezione di analisi di testi pubblicitari condotte in modo autoriferito, quanto piuttosto di “messe alla prova” della metodologia, funzionali alla definizione di disegni di ricerca per la marketing research. Questo comporta un dialogo piuttosto stretto con metodologie affini (sociologia qualitativa e quantitativa, psicologia motivazionale, ecc.) nella convinzione che la priorità accordata all’oggetto di analisi sia sovraordinata rispetto all’ortodossia degli strumenti metodologici. In definitiva, lo spot è sempre e comunque analizzato all’interno di una prospettiva brand-centrica che ha ben in mente la semiotica della situazione di consumo rispetto alla quale lo spot agisce da leva di valorizzazione per l’acquisto. In secondo luogo, gli oggetti analizzati sono piuttosto vari e differenziati: non solo lo spot nella sua versione audiovisiva definitiva (il “girato”), ma anche storyboard, animatic, concept (di prodotto e di comunicazione). La prospettiva generativa greimasiana va a innestarsi su problematiche legate (anche) alla genesi dello spot, alla sua progettazione e riprogettazione/ottimizzazione. La tesi mostra quindi come una semiotica per le consulenze di marketing si diriga sul proprio oggetto ponendogli domande ben circoscritte e finalizzate a un obiettivo specifico, sostanzialmente derivato dal brief contenente le intenzioni comunicazionali del cliente-azienda. Infine, pur rimanendo all’interno di una teoria semiotica generativa (sostanzialmente greimasiana e post greimasiana), la ricerca adotta una prospettiva intrinsecamente multidisciplinare che se da un lato guarda a problematiche legate al marketing, al branding e alla comunicazione pubblicitaria e d’impresa tout court, dall’altro ritorna alle teorie dell’audiovisivo, mostrando affinità e differenze rispetto a forme audiovisive standard (il “film”) e a mutuazioni da nuove estetiche (la neotelevisione, il videoclip, ecc). La tesi si mostra solidamente convinta del fatto che per parlare di efficacia discorsiva sia imprescindibile approfondire le tematiche riguardanti il sincretismo espressivo e le specifiche modalità di manifestazione stilistica. In questo contesto, il lavoro si compone di quattro grandi aree tematiche. Dopo una breve introduzione sull’attualità del tema “spot” e sulla prospettiva analiticometodologica adottata (§ 1.), nel secondo capitolo si assume teoreticamente che i contenuti dello spot derivino da una specifica (e di volta in volta diversa) creolizzazione tra domini tematici derivanti dalla marca, dal prodotto (inteso tanto come concept di prodotto, quanto come prodotto già “vestito” di una confezione) e dalle tendenze socioculturali. Le tre dimensioni vengono valutate in relazione all’opposizione tra heritage, cioè continuità rispetto al passato e ai concorrenti e vision, cioè discontinuità rispetto alla propria storia comunicazionale e a quella dei concorrenti. Si esplorano inoltre altri fattori come il testimonial-endorser che, in quanto elemento già intrinsecamente foriero di elementi di valorizzazione, va a influire in modo rilevante sul complesso tematico e assiologico della pubblicità. Essendo la sezione della tesi che prende in considerazione il piano specificatamente contenutistico dello spot, questa parte diventa quindi anche l’occasione per ritornare sul modello delle assiologie del consumo di Jean-Marie Floch, approntando alcune critiche e difendendo invece un modello che – secondo la prospettiva qui esposta – contiene punti di attualità ineludibili rispetto a schematizzazioni che gli sono successive e in qualche modo debitrici. Segue una sezione (§ 3.) specificatamente dedicata allo svolgimento e dis-implicazione del sincretismo audiovisivo e quindi – specularmente alla precedente, dedicata alle forme e sostanze del contenuto – si concentra sulle dinamiche espressive. Lo spot viene quindi analizzato in quanto “forma testuale” dotata di alcune specificità, tra cui in primis la brevità. Inoltre vengono approfondite le problematiche legate all’apporto di ciascuna specifica sostanza: il rapporto tra visivo e sonoro, lo schermo e la sua multiprospetticità sempre più evidente, il “lavoro” di punteggiatura della musica, ecc. E su tutto il concetto dominante di montaggio, intrinsecamente unito a quello di ritmo. Il quarto capitolo ritorna in modo approfondito sul rapporto tra semiotica e ricerca di mercato, analizzando sia i rapporti di reciproca conoscenza (o non conoscenza), sia i nuovi spazi di intervento dell’analisi semiotica. Dopo aver argomentato contro un certo scetticismo circa l’utilità pragmatica dell’analisi semiotica, lo studio prende in esame i tradizionali modelli di valutazione e misurazione dell’efficacia pubblicitaria (pre- e post- test) cercando di semiotizzarne il portato. Ne consegue la proposta di disegni di ricerca semiotici modulari: integrabili tra loro e configurabili all’interno di progetti semio-quali-quantitativi. Dopo aver ridefinito le possibilità di un’indagine semiotica sui parametri di efficacia discorsiva, si procede con l’analisi di un caso concreto (§ 5.): dato uno spot che si è dimostrato efficace agli occhi dell’azienda committente, quali possono essere i modi per replicarne i fattori di successo? E come spiegare invece quelli di insuccesso delle campagne successive che – almeno teoricamente – erano pensate per capitalizzare l’efficacia della prima? Non si tratta quindi di una semiotica ingenuamente chiamata a “misurare” l’efficacia pubblicitaria, che evidentemente la marketing research analizza con strumenti quantitativi assodati e fondati su paradigmi di registrazione di determinati parametri sul consumatore (ricordo spontaneo e sollecitato, immagine di marca risultante nella mente di user e prospect consumer, intenzione d’acquisto stimolata). Piuttosto l’intervento qui esposto si preoccupa più funzionalmente a spiegare quali elementi espressivi, discorsivi, narrativi, siano stati responsabili (e quindi prospetticamente potranno condizionare in positivo o in negativo in futuro) la ricezione dello spot. L’analisi evidenzia come elementi apparentemente minimali, ancorati a differenti livelli di pertinenza siano in grado di determinare una notevole diversità negli effetti di senso. Si tratta quindi di un problema di mancata coerenza tra intenzioni comunicative e testo pubblicitario effettivamente realizzato. La risoluzione di tali questioni pragmatiche conduce ad approfondimenti teoricometodologici su alcuni versanti particolarmente interessanti. In primo luogo, ci si interroga sull’apporto della dimensione passionale nella costruzione dell’efficacia e nel coinvolgimento dello spettatore/consumatore. Inoltre – e qui risiede uno dei punti di maggior sintesi del lavoro di tesi – si intraprende una proficua discussione dei modelli di tipizzazione dei generi pubblicitari, intesi come forme discorsive. Si fanno quindi dialogare modelli diversi ma in qualche misura coestensivi e sovrapponibili come quelli di Jean Marie Floch, Guido Ferraro, Cosetta Saba e Chiara Giaccardi. Si perviene così alla costruzione di un nuovo modello sintetico, idealmente onnipervasivo e trasversale alle prospettive analizzate.
Resumo:
Negli ultimi decenni il concetto di variabile latente ha riscosso un enorme successo nelle discipline statistiche come attestano i numerosi lavori scientifici presenti in letteratura. In particolare, nelle scienze sociali e in psicometria, l’uso del concetto di variabile latente è stato largamente adottato per far fronte al problema di misurare quantità che, in natura, non possono essere direttamente osservate. La vasta letteratura riguardante questa metodologia si espande, in maniera più limitata, anche al campo della ricerca economica ed econometrica. Nonostante esistano studi di modelli a struttura latente applicati a variabili di tipo economico, molto pochi sono i lavori che considerano variabili finanziarie e, finora, praticamente nessun ricercatore ha messo in connessione la teoria standard di portafoglio con la metodologia dei modelli statistici a variabili latenti. L’obiettivo del lavoro è quello di ricorrere alle potenzialità esplicative ed investigative dei metodi statistici a variabili latenti per l’analisi dei fenomeni finanziari. Si fa riferimento, in particolare, ai modelli a classe latente che consentono di sviluppare soluzioni metodologicamente corrette per importanti problemi ancora aperti in campo finanziario. In primo luogo, la natura stessa delle variabili finanziarie è riconducibile al paradigma delle variabili latenti. Infatti, variabili come il rischio ed il rendimento atteso non possono essere misurate direttamente e necessitano di approssimazioni per valutarne l’entità. Tuttavia, trascurare la natura non osservabile delle variabili finanziarie può portare a decisioni di investimento inopportune o, talvolta, addirittura disastrose. Secondariamente, vengono prese in considerazione le capacità dei modelli a classi latenti nel contesto della classificazione. Per i prodotti finanziari, infatti, una corretta classificazione sulla base del profilo (latente) di rischio e rendimento rappresenta il presupposto indispensabile per poter sviluppare efficaci strategie di investimento. Ci si propone, inoltre, di sviluppare un collegamento, finora mancante, tra uno dei principali riferimenti della finanza moderna, la teoria classica del portafoglio di Markowitz, e la metodologia statistica dei modelli a variabili latenti. In questo contesto, si vogliono investigare, in particolare, i benefici che i modelli a variabili latenti possono dare allo studio di ottimizzazione del profilo rischio - rendimento atteso di un portafoglio di attività finanziarie. Lo sviluppo di numeri indici dei prezzi delle attività finanziarie caratterizzati da una solida base metodologica rappresenta un ulteriore aspetto nel quale i modelli a classe latente possono svolgere un ruolo di fondamentale importanza. In particolare, si propone di analizzare il contesto dei numeri indici dei prezzi settoriali, che costituiscono uno dei riferimenti più importanti nelle strategie di diversificazione del rischio. Infine, il passaggio da una specificazione statica ad una analisi dinamica coglie aspetti metodologici di frontiera che possono essere investigati nell’ambito dei modelli markoviani a classi latenti. Il profilo latente di rischio – rendimento può essere, così, investigato in riferimento alle diverse fasi dei mercati finanziari, per le quali le probabilità di transizione consentono valutazioni di tipo previsivo di forte interesse.
Resumo:
The field of research of this dissertation concerns the bioengineering of exercise, in particular the relationship between biomechanical and metabolic knowledge. This relationship can allow to evaluate exercise in many different circumstances: optimizing athlete performance, understanding and helping compensation in prosthetic patients and prescribing exercise with high caloric consumption and minimal joint loading to obese subjects. Furthermore, it can have technical application in fitness and rehabilitation machine design, predicting energy consumption and joint loads for the subjects who will use the machine. The aim of this dissertation was to further understand how mechanical work and metabolic energy cost are related during movement using interpretative models. Musculoskeletal models, when including muscle energy expenditure description, can be useful to address this issue, allowing to evaluate human movement in terms of both mechanical and metabolic energy expenditure. A whole body muscle-skeletal model that could describe both biomechanical and metabolic aspects during movement was identified in literature and then was applied and validated using an EMG-driven approach. The advantage of using EMG driven approach was to avoid the use of arbitrary defined optimization functions to solve the indeterminate problem of muscle activations. A sensitivity analysis was conducted in order to know how much changes in model parameters could affect model outputs: the results showed that changing parameters in between physiological ranges did not influence model outputs largely. In order to evaluate its predicting capacity, the musculoskeletal model was applied to experimental data: first the model was applied in a simple exercise (unilateral leg press exercise) and then in a more complete exercise (elliptical exercise). In these studies, energy consumption predicted by the model resulted to be close to energy consumption estimated by indirect calorimetry for different intensity levels at low frequencies of movement. The use of muscle skeletal models for predicting energy consumption resulted to be promising and the use of EMG driven approach permitted to avoid the introduction of optimization functions. Even though many aspects of this approach have still to be investigated and these results are preliminary, the conclusions of this dissertation suggest that musculoskeletal modelling can be a useful tool for addressing issues about efficiency of movement in healthy and pathologic subjects.