33 resultados para Progettazione concettuale, Dirigibile, Disegno automatico, Dimensionamento
Resumo:
La conoscenza delle esigenze luminose (intensità, spettro, durata minima, massima ed ottimale del fotoperiodo di illuminazione) e della tolleranza alle condizioni degli interni delle piante ad uso decorativo, è di fondamentale importanza per una giusta tecnica di progettazione (dimensionamento e dislocazione dei punti luce) dell’indoor plantscaping. Il lungo periodo di condizionamento al quale queste piante vengono sottoposte, caratterizzato principalmente dalla scarsa disponibilità di luce naturale e dagli alti livelli di concentrazione di CO2 determina una forte influenza sui processi morfo-fisiologici. Il presente studio analizza il fattore luminoso ed è articolato su più punti quali; • caratterizzazione della riposta fotosintetica all’intensità luminosa di 21 delle principali specie a fogliame decorativo comunemente utilizzate nella realizzazione degli spazi verdi indoor, per stabilire quali siano i minimi ed ottimali livelli di PAR tali da garantire una fotosintesi netta positiva e nel complesso le condizioni di maggior benessere per le piante; • quantificazione dell’incremento fotosintetico netto dovuto ad una maggior concentrazione di CO2 negli interni rispetto alla concentrazione CO2 atmosferica esterna, all’aumentare dell’ intensità luminosa artificiale sulle precedenti specie; • monitoraggio dell’andamento delle attività fotosintetiche durante il periodo di illuminazione di 8 ore comunemente utilizzato in un interno ad uso lavorativo, a PAR costante e variabile in Ficus elastica e Dieffenbachia picta, al fine di stabilire quali possano essere le durate e le modalità di somministrazione della luce per rendere massima la fotosintesi netta riducendo al minimo i consumi energetici dovuti all’accensione delle lampade; • valutazione della risposta morfo-fisiologica e fotosintetica a modificazioni dello spettro luminoso mediante l’uso di LED monocromatici colorati ad emissione nel bianco, blu e rosso in Ficus benjamina e Iresine herbistii al fine di stabilire se questo tipo di lampade possano essere utilizzate come fonte integrativa e/o sostitutiva nella realizzazione degli spazi verdi interni. Vengono analizzati il punto si compensazione alla luce (g), il punto di saturazione alla luce (s), l’efficienza quantica (AQE), il punto di respirazione al buio (Rd) e la fotosintesi netta massima (A max) per (Aglaonema commutatum, Asplenium nidus, Anthurium andreanum, Begonia rex, Calathea luoise, Calathea veitchiana, Calathea rufibarba, Calathea zebrina, Codiaeum variegatum, Cthenanthe oppenheimiana, Dieffenbakia picta, Ficus benjamina, Ficus elatica, Ficus longifolia, Fittonia verschaffeltii, Iresine herbistii, Philodendron erubescens, Philodendron pertusum, Potos aureus, Spathiphillum wallisi, Syngonium podophillum ) e classificate le specie in funzione di Amax in quattro categorie; A max < 2 µmol CO2 m-2 s-1, A max compresa tra 2 e 4 µmol CO2 m-2 s-1, Amax cpmpresa tra 4 e 6 µmol CO2 m-2 s-1, Amax > 6 µmol CO2 m-2 s-1, al fine di mettere in risalto la potenzialità fotosintetiche di ogni singola specie. I valori di PAR compresi tra (g) ed (s) forniscono le indicazioni sulle quali basarsi per scegliere una giusta lampada o dimensionare un punto luce per ogni singola specie e/o composizione. È stimata l’influenza di due livelli di concentrazione di CO2 ambientale (400 e 800 ppm) all’incrementare dell’intensità luminosa sul processo fotosintetico delle specie precedenti. Per quasi tutte le specie 800 ppm di CO2 non favoriscono nessun incremento all’attività fotosintetica ad eccezione di Ficus benjamina, Ficus elatica e Syngonium podophillum se non accompagnati da una disponibilità luminosa superiore alle 10 µmol m-2 s-1. Viene monitorato l’andamento dell’attività fotosintetica a PAR costante e variabile (intervallando periodi di 8 minuti a PAR 40 e 80) durante 8 ore di illuminazione su Ficus elastica e Dieffenbachia picta al fine di stabilire la miglior modalità di somministrazione della luce. La fotosintesi netta cumulativa per l’intera durata di illuminazione a PAR costante mostra un calo dopo alcune ore dall’attivazione in Dieffenbackia, e un andamento oscillatorio in Ficus. L’illuminazione alternata consente di raggiungere i quantitativi di CO2 organicata a 80 µmol m-2 s-1 di PAR, dopo 5 ore e mezza sia in Ficus che Dieffenbackia sebbene le potenzialità fotosintetiche delle due piante siano molto differenti. È stato valutato l’effetto dell’illuminazione artificiale mediante LED (15W) a luce bianca, blu e rossa monocromatica in rapporto alla luce neon(36W) bianca tradizionale (con differenti abbinamenti tra le lampade) sui principali parametri morfologici e fisiologici, in Ficus benjamin ‘Variegata’ e Iresine herbistii per verificare se tali fonti possono rappresentare una valida alternativa nella sostituzione o integrazione di altre lampade per gli spazi verdi indoor. Tutte le combinazioni LED indagate possono rappresentare un’alternativa di sostituzione alla coltivazione con neon ed un risparmio energetico di oltre il 50%. Una PAR di 20,6 µmol m-2 s-1 della singola lampada LED bianco è sufficiente per mantenere la pianta in condizioni di sopravvivenza con un consumo di 15W a fronte dei 36W necessari per il funzionamento di ogni neon. La combinazione LED bianco + LED blu monocromatico favorisce il contenimento della taglia della pianta, caratteristica gradita nella fase di utilizzo indoor, una maggior produzione di sostanza secca e un’attività fotosintetica più elevata.
Resumo:
Urbanization is a continuing phenomenon in all the world. Grasslands, forests, etc. are being continually changed to residential, commercial and industrial complexes, roads and streets, and so on. One of the side effects of urbanization with which engineers and planners must deal with, is the increase of peak flows and volumes of runoff from rainfall events. As a result, the urban drainage and flood control systems must be designed to accommodate the peak flows from a variety of storms that may occur. Usually the peak flow, after development, is required not to exceed what would have occurred from the same storm under conditions existing prior to development. In order to do this it is necessary to design detention storage to hold back runoff and to release it downstream at controlled rates. In the first part of the work have been developed various simplified formulations that can be adopted for the design of stormwater detention facilities. In order to obtain a simplified hydrograph were adopted two approaches: the kinematic routing technique and the linear reservoir schematization. For the two approaches have been also obtained other two formulations depending if the IDF (intensity-duration-frequency) curve is described with two or three parameters. Other formulations have been developed taking into account if the outlet have a constant discharge or it depends on the water level in the pond. All these formulations can be easily applied when are known the characteristics of the drainage system and maximum discharge that these is in the outlet and has been defined a Return Period which characterize the IDF curve. In this way the volume of the detention pond can be calculated. In the second part of the work have been analyzed the design of detention ponds adopting continuous simulation models. The drainage systems adopted for the simulations, performed with SWMM5, are fictitious systems characterized by different sizes, and different shapes of the catchments and with a rainfall historical time series of 16 years recorded in Bologna. This approach suffers from the fact that continuous record of rainfall is often not available and when it is, the cost of such modelling can be very expensive, and that the majority of design practitioners are not prepared to use continuous long term modelling in the design of stormwater detention facilities. In the third part of the work have been analyzed statistical and stochastic methodologies in order to define the volume of the detention pond. In particular have been adopted the results of the long term simulation, performed with SWMM, to obtain the data to apply statistic and stochastic formulation. All these methodologies have been compared and correction coefficient have been proposed on the basis of the statistic and stochastic form. In this way engineers which have to design a detention pond can apply a simplified procedure appropriately corrected with the proposed coefficient.
Resumo:
L'attività di ricerca descritta in questa tesi fornisce linee guida per la progettazione di arti protesici inferiori, con particolare riferimento alla progettazione di protesi a basso costo. La necessità di efficienti protesi a basso costo risulta infatti sentita nei Paesi in via di sviluppo ma anche dalle fasce meno abbienti dei paesi occidentali. Al fine di comprendere le strategie adottate dall'apparato locomotorio per muoversi con le protesi sono analizzati il cammino fisiologico, le protesi presenti sul mercato ed infine le modalità con cui le loro prestazioni sono valutate. Con il presente lavoro, dopo aver osservato la presenza di una scarsa strutturazione della metodologia di progettazione che riguarda specialmente il settore del basso costo, si propone una metodologia il più possibile oggettiva e ripetibile tesa ad individuare quali sono gli aspetti essenziali di una protesi per garantire al paziente una buona qualità di vita. Solo questi aspetti dovranno essere selezionati al fine di ottenere la massima semplificazione della protesi e ridurre il più possibile i costi. Per la simulazione delle attività di locomozione, in particolare del cammino, è stato elaborato un apposito modello spaziale del cammino. Il modello proposto ha 7 membri rigidi (corrispondenti a piedi, tibie, femori e bacino) e 24 gradi di libertà. Le articolazioni e l'appoggio dei piedi al suolo sono modellati con giunti sferici. La pianta del piede consente tre possibili punti di appoggio. I criteri di realizzazione delle simulazioni possono comprendere aspetti energetici, cinematici e dinamici considerati come obiettivo dall'apparato locomotorio. In questa tesi vengono trattati in particolare gli aspetti cinematici ed è mostrata un'applicazione della procedura nella quale vengono dapprima identificati i riferimenti fisiologici del cammino e quindi simulato il cammino in presenza di una menomazione al ginocchio (eliminazione della flessione in fase di appoggio). Viene quindi lasciato a sviluppi futuri il completamento della procedura e la sua implementazione in un codice di calcolo.
Resumo:
Il presente studio, per ciò che concerne la prima parte della ricerca, si propone di fornire un’analisi che ripercorra il pensiero teorico e la pratica critica di Louis Marin, mettendone in rilievo i caratteri salienti affinché si possa verificare se, nella loro eterogenea interdisciplinarità, non emerga un profilo unitario che consenta di ricomprenderli in un qualche paradigma estetico moderno e/o contemporaneo. Va innanzitutto rilevato che la formazione intellettuale di Marin è avvenuta nell’alveo di quel montante e pervasivo interesse che lo strutturalismo di stampo linguistico seppe suscitare nelle scienze sociali degli anni sessanta. Si è cercato, allora, prima di misurare la distanza che separa l’approccio di Marin ai testi da quello praticato dalla semiotica greimasiana, impostasi in Francia come modello dominante di quella svolta semiotica che ha interessato in quegli anni diverse discipline: dagli studi estetici all’antropologia, dalla psicanalisi alla filosofia. Si è proceduto, quindi, ad un confronto tra l’apparato concettuale elaborato dalla semiotica e alcune celebri analisi del nostro autore – tratte soprattutto da Opacité de la peinture e De la représentation. Seppure Marin non abbia mai articolato sistematicametne i principi teorici che esplicitassero la sua decisa contrapposizione al potente modello greimasiano, tuttavia le reiterate riflessioni intorno ai presupposti epistemologici del proprio modo di interpretare i testi – nonché le analisi di opere pittoriche, narrative e teoriche che ci ha lasciato in centinaia di studi – permettono di definirne una concezione estetica nettamente distinta dalla pratica semio-semantica della scuola di A. J. Greimas. Da questo confronto risulterà, piuttosto, che è il pensiero di un linguista sui generis come E. Benveniste ad avere fecondato le riflessioni di Marin il quale, d’altra parte, ha saputo rielaborare originalmente i contributi fondamentali che Benveniste diede alla costruzione della teoria dell’enunciazione linguistica. Impostando l’equazione: enunciazione linguistica=rappresentazione visiva (in senso lato), Marin diviene l’inventore del dispositivo concettuale e operativo che consentirà di analizzare l’enunciazione visiva: la superficie di rappresentazione, la cornice, lo sguardo, l’iscrizione, il gesto, lo specchio, lo schema prospettico, il trompe-l’oeil, sono solo alcune delle figure in cui Marin vede tradotto – ma in realtà immagina ex novo – quei dispositivi enunciazionali che il linguista aveva individuato alla base della parole come messa in funzione della langue. Marin ha saputo così interpretare, in modo convincente, le opere e i testi della cultura francese del XVII secolo alla quale sono dedicati buona parte dei suoi studi: dai pittori del classicismo (Poussin, Le Brun, de Champaigne, ecc.) agli eruditi della cerchia di Luigi XIV, dai filosofi (soprattutto Pascal), grammatici e logici di Port-Royal alle favole di La Fontaine e Perrault. Ma, come si evince soprattutto da testi come Opacité de la peinture, Marin risulterà anche un grande interprete del rinascimento italiano. In secondo luogo si è cercato di interpretare Le portrait du Roi, il testo forse più celebre dell’autore, sulla scorta dell’ontologia dell’immagine che Gadamer elabora nel suo Verità e metodo, non certo per praticare una riduzione acritica di due concezioni che partono da presupposti divergenti – lo strutturalismo e la critica d’arte da una parte, l’ermeneutica filosofica dall’altra – ma per rilevare che entrambi ricorrono al concetto di rappresentazione intendendolo non tanto come mimesis ma soprattutto, per usare il termine di Gadamer, come repraesentatio. Sia Gadamer che Marin concepiscono la rappresentazione non solo come sostituzione mimetica del rappresentato – cioè nella direzione univoca che dal rappresentato conduce all’immagine – ma anche come originaria duplicazione di esso, la quale conferisce al rappresentato la sua legittimazione, la sua ragione o il suo incremento d’essere. Nella rappresentazione in quanto capace di legittimare il rappresentato – di cui pure è la raffigurazione – abbiamo così rintracciato la cifra comune tra l’estetica di Marin e l’ontologia dell’immagine di Gadamer. Infine, ci è sembrato di poter ricondurre la teoria della rappresentazione di Marin all’interno del paradigma estetico elaborato da Kant nella sua terza Critica. Sebbene manchino in Marin espliciti riferimenti in tal senso, la sua teoria della rappresentazione – in quanto dire che mostra se stesso nel momento in cui dice qualcos’altro – può essere intesa come una riflessione estetica che trova nel sensibile la sua condizione trascendentale di significazione. In particolare, le riflessioni kantiane sul sentimento di sublime – a cui abbiamo dedicato una lunga disamina – ci sono sembrate chiarificatrici della dinamica a cui è sottoposta la relazione tra rappresentazione e rappresentato nella concezione di Marin. L’assolutamente grande e potente come tratti distintivi del sublime discusso da Kant, sono stati da noi considerati solo nella misura in cui ci permettevano di fare emergere la rappresentazione della grandezza e del potere assoluto del monarca (Luigi XIV) come potere conferitogli da una rappresentazione estetico-politica costruita ad arte. Ma sono piuttosto le facoltà in gioco nella nostra più comune esperienza delle grandezze, e che il sublime matematico mette esemplarmente in mostra – la valutazione estetica e l’immaginazione – ad averci fornito la chiave interpretativa per comprendere ciò che Marin ripete in più luoghi citando Pascal: una città, da lontano, è una città ma appena mi avvicino sono case, alberi, erba, insetti, ecc… Così abbiamo applicato i concetti emersi nella discussione sul sublime al rapporto tra la rappresentazione e il visibile rappresentato: rapporto che non smette, per Marin, di riconfigurarsi sempre di nuovo. Nella seconda parte della tesi, quella dedicata all’opera di Bernard Stiegler, il problema della comprensione delle immagini è stato affrontato solo dopo aver posto e discusso la tesi che la tecnica, lungi dall’essere un portato accidentale e sussidiario dell’uomo – solitamente supposto anche da chi ne riconosce la pervasività e ne coglie il cogente condizionamento – deve invece essere compresa proprio come la condizione costitutiva della sua stessa umanità. Tesi che, forse, poteva essere tematizzata in tutta la sua portata solo da un pensatore testimone delle invenzioni tecnico-tecnologiche del nostro tempo e del conseguente e radicale disorientamento a cui esse ci costringono. Per chiarire la propria concezione della tecnica, nel I volume di La technique et le temps – opera alla quale, soprattutto, sarà dedicato il nostro studio – Stiegler decide di riprendere il problema da dove lo aveva lasciato Heidegger con La questione della tecnica: se volgiamo coglierne l’essenza non è più possibile pensarla come un insieme di mezzi prodotti dalla creatività umana secondo un certi fini, cioè strumentalmente, ma come un modo di dis-velamento della verità dell’essere. Posto così il problema, e dopo aver mostrato come i sistemi tecnici tendano ad evolversi in base a tendenze loro proprie che in buona parte prescindono dall’inventività umana (qui il riferimento è ad autori come F. Gille e G. Simondon), Stiegler si impegna a riprendere e discutere i contributi di A. Leroi-Gourhan. È noto come per il paletnologo l’uomo sia cominciato dai piedi, cioè dall’assunzione della posizione eretta, la quale gli avrebbe permesso di liberare le mani prima destinate alla deambulazione e di sviluppare anatomicamente la faccia e la volta cranica quali ondizioni per l’insorgenza di quelle capacità tecniche e linguistiche che lo contraddistinguono. Dei risultati conseguiti da Leroi-Gourhan e consegnati soprattutto in Le geste et la parole, Stiegler accoglie soprattutto l’idea che l’uomo si vada definendo attraverso un processo – ancora in atto – che inizia col primo gesto di esteriorizzazione dell’esperienza umana nell’oggetto tecnico. Col che è già posta, per Stiegler, anche la prima forma di simbolizzazione e di rapporto al tempo che lo caratterizzano ancora oggi. Esteriorità e interiorità dell’uomo sono, per Stiegler, transduttive, cioè si originano ed evolvono insieme. Riprendendo, in seguito, l’anti-antropologia filosofica sviluppata da Heidegger nell’analitica esistenziale di Essere e tempo, Stiegler dimostra che, se si vuole cogliere l’effettività della condizione dell’esistenza umana, è necessaria un’analisi degli oggetti tecnici che però Heidegger relega nella sfera dell’intramondano e dunque esclude dalla temporalità autentica dell’esser-ci. Se è vero che l’uomo – o il chi, come lo chiama Stiegler per distinguerlo dal che-cosa tecnico – trova nell’essere-nel-mondo la sua prima e più fattiva possibilità d’essere, è altrettanto verò che questo mondo ereditato da altri è già strutturato tecnicamente, è già saturo della temporalità depositata nelle protesi tecniche nelle quali l’uomo si esteriorizza, e nelle quali soltanto, quindi, può trovare quelle possibilità im-proprie e condivise (perché tramandate e impersonali) a partire dalle quali poter progettare la propria individuazione nel tempo. Nel percorso di lettura che abbiamo seguito per il II e III volume de La technique et le temps, l’autore è impegnato innanzitutto in una polemica serrata con le analisi fenomenologiche che Husserl sviluppa intorno alla coscienza interna del tempo. Questa fenomenologia del tempo, prendendo ad esame un oggetto temporale – ad esempio una melodia – giunge ad opporre ricordo primario (ritenzione) e ricordo secondario (rimemorazione) sulla base dell’apporto percettivo e immaginativo della coscienza nella costituzione del fenomeno temporale. In questo modo Husserl si preclude la possibilità di cogliere il contributo che l’oggetto tecnico – ad esempio la registrazione analogica di una melodia – dà alla costituzione del flusso temporale. Anzi, Husserl esclude esplicitamente che una qualsiasi coscienza d’immagine – termine al quale Stiegler fa corrispondere quello di ricordo terziario: un testo scritto, una registrazione, un’immagine, un’opera, un qualsiasi supporto memonico trascendente la coscienza – possa rientrare nella dimensione origianaria e costitutiva di tempo. In essa può trovar posto solo la coscienza con i suo vissuti temporali percepiti, ritenuti o ricordati (rimemorati). Dopo un’attenta rilettura del testo husserliano, abbiamo seguito Stiegler passo a passo nel percorso di legittimazione dell’oggetto tecnico quale condizione costitutiva dell’esperienza temporale, mostrando come le tecniche di registrazione analogica di un oggetto temporale modifichino, in tutta evidenza, il flusso ritentivo della coscienza – che Husserl aveva supposto automatico e necessitante – e con ciò regolino, conseguente, la reciproca permeabilità tra ricordo primario e secondario. L’interpretazione tecnica di alcuni oggetti temporali – una foto, la sequenza di un film – e delle possibilità dispiegate da alcuni dispositivi tecnologici – la programmazione e la diffusione audiovisiva in diretta, l’immagine analogico-digitale – concludono questo lavoro richiamando l’attenzione sia sull’evidenza prodotta da tali esperienze – evidenza tutta tecnica e trascendente la coscienza – sia sul sapere tecnico dell’uomo quale condizione – trascendentale e fattuale al tempo stesso – per la comprensione delle immagini e di ogni oggetto temporale in generale. Prendendo dunque le mosse da una riflessione, quella di Marin, che si muove all’interno di una sostanziale antropologia filosofica preoccupata di reperire, nell’uomo, le condizioni di possibilità per la comprensione delle immagini come rappresentazioni – condizione che verrà reperità nella sensibilità o nell’aisthesis dello spettatore – il presente lavoro passerà, dunque, a considerare la riflessione tecno-logica di Stiegler trovando nelle immagini in quanto oggetti tecnici esterni all’uomo – cioè nelle protesi della sua sensibilità – le condizioni di possibilità per la comprensione del suo rapporto al tempo.
Resumo:
The present dissertation relates to methodologies and technics about industrial and mechanical design. The author intends to give a complete idea about the world of design, showing the theories of Quality Function Deployment and TRIZ, of other methods just like planning, budgeting, Value Analysis and Engineering, Concurrent Engineering, Design for Assembly and Manufactoring, etc., and their applications to five concrete cases. In these cases there are also illustrated design technics as CAD, CAS, CAM; Rendering, which are ways to transform an idea into reality. The most important object of the work is, however, the birth of a new methodology, coming up from a comparison between QFD and TRIZ and their integration through other methodologies, just like Time and Cost Analysis, learned and skilled during an important experience in a very famous Italian automotive factory.
Resumo:
Il lavoro di ricerca tenta di inquadrare sotto nuove prospettive una problematica ormai classica all’interno della semiotica della pubblicità: l’analisi dello spot. I punti chiave del lavoro – e la pretesa di una certa differenza rispetto a lavori con oggetti affini – consistono sostanzialmente in tre aspetti. Innanzitutto, vi è un ritorno alle origini flochiane nella misura in cui non solo il contesto complessivo e le finalità che la ricerca si propone sono fortemente ancorati all’interno di obiettivi di marketing, ma tutto lo studio nella sua interezza nasce dal dialogo concreto tra metodologia di analisi semiotica e prassi concreta all’interno degli istituti di ricerca di mercato. La tesi non presenta quindi una collezione di analisi di testi pubblicitari condotte in modo autoriferito, quanto piuttosto di “messe alla prova” della metodologia, funzionali alla definizione di disegni di ricerca per la marketing research. Questo comporta un dialogo piuttosto stretto con metodologie affini (sociologia qualitativa e quantitativa, psicologia motivazionale, ecc.) nella convinzione che la priorità accordata all’oggetto di analisi sia sovraordinata rispetto all’ortodossia degli strumenti metodologici. In definitiva, lo spot è sempre e comunque analizzato all’interno di una prospettiva brand-centrica che ha ben in mente la semiotica della situazione di consumo rispetto alla quale lo spot agisce da leva di valorizzazione per l’acquisto. In secondo luogo, gli oggetti analizzati sono piuttosto vari e differenziati: non solo lo spot nella sua versione audiovisiva definitiva (il “girato”), ma anche storyboard, animatic, concept (di prodotto e di comunicazione). La prospettiva generativa greimasiana va a innestarsi su problematiche legate (anche) alla genesi dello spot, alla sua progettazione e riprogettazione/ottimizzazione. La tesi mostra quindi come una semiotica per le consulenze di marketing si diriga sul proprio oggetto ponendogli domande ben circoscritte e finalizzate a un obiettivo specifico, sostanzialmente derivato dal brief contenente le intenzioni comunicazionali del cliente-azienda. Infine, pur rimanendo all’interno di una teoria semiotica generativa (sostanzialmente greimasiana e post greimasiana), la ricerca adotta una prospettiva intrinsecamente multidisciplinare che se da un lato guarda a problematiche legate al marketing, al branding e alla comunicazione pubblicitaria e d’impresa tout court, dall’altro ritorna alle teorie dell’audiovisivo, mostrando affinità e differenze rispetto a forme audiovisive standard (il “film”) e a mutuazioni da nuove estetiche (la neotelevisione, il videoclip, ecc). La tesi si mostra solidamente convinta del fatto che per parlare di efficacia discorsiva sia imprescindibile approfondire le tematiche riguardanti il sincretismo espressivo e le specifiche modalità di manifestazione stilistica. In questo contesto, il lavoro si compone di quattro grandi aree tematiche. Dopo una breve introduzione sull’attualità del tema “spot” e sulla prospettiva analiticometodologica adottata (§ 1.), nel secondo capitolo si assume teoreticamente che i contenuti dello spot derivino da una specifica (e di volta in volta diversa) creolizzazione tra domini tematici derivanti dalla marca, dal prodotto (inteso tanto come concept di prodotto, quanto come prodotto già “vestito” di una confezione) e dalle tendenze socioculturali. Le tre dimensioni vengono valutate in relazione all’opposizione tra heritage, cioè continuità rispetto al passato e ai concorrenti e vision, cioè discontinuità rispetto alla propria storia comunicazionale e a quella dei concorrenti. Si esplorano inoltre altri fattori come il testimonial-endorser che, in quanto elemento già intrinsecamente foriero di elementi di valorizzazione, va a influire in modo rilevante sul complesso tematico e assiologico della pubblicità. Essendo la sezione della tesi che prende in considerazione il piano specificatamente contenutistico dello spot, questa parte diventa quindi anche l’occasione per ritornare sul modello delle assiologie del consumo di Jean-Marie Floch, approntando alcune critiche e difendendo invece un modello che – secondo la prospettiva qui esposta – contiene punti di attualità ineludibili rispetto a schematizzazioni che gli sono successive e in qualche modo debitrici. Segue una sezione (§ 3.) specificatamente dedicata allo svolgimento e dis-implicazione del sincretismo audiovisivo e quindi – specularmente alla precedente, dedicata alle forme e sostanze del contenuto – si concentra sulle dinamiche espressive. Lo spot viene quindi analizzato in quanto “forma testuale” dotata di alcune specificità, tra cui in primis la brevità. Inoltre vengono approfondite le problematiche legate all’apporto di ciascuna specifica sostanza: il rapporto tra visivo e sonoro, lo schermo e la sua multiprospetticità sempre più evidente, il “lavoro” di punteggiatura della musica, ecc. E su tutto il concetto dominante di montaggio, intrinsecamente unito a quello di ritmo. Il quarto capitolo ritorna in modo approfondito sul rapporto tra semiotica e ricerca di mercato, analizzando sia i rapporti di reciproca conoscenza (o non conoscenza), sia i nuovi spazi di intervento dell’analisi semiotica. Dopo aver argomentato contro un certo scetticismo circa l’utilità pragmatica dell’analisi semiotica, lo studio prende in esame i tradizionali modelli di valutazione e misurazione dell’efficacia pubblicitaria (pre- e post- test) cercando di semiotizzarne il portato. Ne consegue la proposta di disegni di ricerca semiotici modulari: integrabili tra loro e configurabili all’interno di progetti semio-quali-quantitativi. Dopo aver ridefinito le possibilità di un’indagine semiotica sui parametri di efficacia discorsiva, si procede con l’analisi di un caso concreto (§ 5.): dato uno spot che si è dimostrato efficace agli occhi dell’azienda committente, quali possono essere i modi per replicarne i fattori di successo? E come spiegare invece quelli di insuccesso delle campagne successive che – almeno teoricamente – erano pensate per capitalizzare l’efficacia della prima? Non si tratta quindi di una semiotica ingenuamente chiamata a “misurare” l’efficacia pubblicitaria, che evidentemente la marketing research analizza con strumenti quantitativi assodati e fondati su paradigmi di registrazione di determinati parametri sul consumatore (ricordo spontaneo e sollecitato, immagine di marca risultante nella mente di user e prospect consumer, intenzione d’acquisto stimolata). Piuttosto l’intervento qui esposto si preoccupa più funzionalmente a spiegare quali elementi espressivi, discorsivi, narrativi, siano stati responsabili (e quindi prospetticamente potranno condizionare in positivo o in negativo in futuro) la ricezione dello spot. L’analisi evidenzia come elementi apparentemente minimali, ancorati a differenti livelli di pertinenza siano in grado di determinare una notevole diversità negli effetti di senso. Si tratta quindi di un problema di mancata coerenza tra intenzioni comunicative e testo pubblicitario effettivamente realizzato. La risoluzione di tali questioni pragmatiche conduce ad approfondimenti teoricometodologici su alcuni versanti particolarmente interessanti. In primo luogo, ci si interroga sull’apporto della dimensione passionale nella costruzione dell’efficacia e nel coinvolgimento dello spettatore/consumatore. Inoltre – e qui risiede uno dei punti di maggior sintesi del lavoro di tesi – si intraprende una proficua discussione dei modelli di tipizzazione dei generi pubblicitari, intesi come forme discorsive. Si fanno quindi dialogare modelli diversi ma in qualche misura coestensivi e sovrapponibili come quelli di Jean Marie Floch, Guido Ferraro, Cosetta Saba e Chiara Giaccardi. Si perviene così alla costruzione di un nuovo modello sintetico, idealmente onnipervasivo e trasversale alle prospettive analizzate.
Resumo:
In this PhD-thesis new synthetic approaches towards new azetidinone derivatives are described. In particular, 4-alkyliden-β-lactams were used as starting materials for the preparation of new biologically active compounds. The carbapenem Thienamycin has got a broad spectrum of activity as antibiotic. It has got 3 stereocenters and apart of one epimer, all isomers have been synthesized. Using the 4-alkyliden-β-lactam benzilyc ester as precursor, we developed a synthesis for this missing epimer, which is described in chapter II. Biological tests in order to establish its biological activity are under way. The Hunsdiecker-Borodine reaction was extensively studied for the preparation of the mono halogenated and – surprisingly – the dihalogenated derivative from the 4-alkyliden-azetidinone carboxylic acid. The herein described synthetic procedures allowed the preparation of chloro-, bromo- and iodo derivatives in good to excellent yield. Furthermore, the reaction mechanism was investigated by NMR-experiments and is described in detail in chapter III. In chapter IV, synthetic approaches towards new β-lactam derivatives for inhibition of the histone deacetylase enzymes (HDACs) are reported. In collaboration with the company Sigma-Tau (Rome), 14 new β-lactams were synthesized. The new β-lactams were evaluated for the activity showing a promising activityparticulary, 10 of the β-lactams synthesized were evaluated for the in vitro inhibitory activity against the 11 human HDACs isoforms and they showed a selective inhibition of HDAC6 or HDAC8 in micromolar range. Finally, preliminary studies were conducted for the employment of 4-alkyliden-β-lactams as precursors for the synthesis of chiral β-amino acids by an opening of the β-lactam ring. In chapter V is described the ring opening reaction catalyzed by the enzyme lipase Cal-B. Preliminary results have shown that the enzyme not only catalyzes the ring opening of the β-lactam precursor, moreover, it leads to the formation of a cyclic dimer by the reaction of two molecules of β-amino acid obtained.
Resumo:
L’utilizzo del reservoir geotermico superficiale a scopi termici / frigoriferi è una tecnica consolidata che permette di sfruttare, tramite appositi “geoscambiatori”, un’energia presente ovunque ed inesauribile, ad un ridotto prezzo in termini di emissioni climalteranti. Pertanto, il pieno sfruttamento di questa risorsa è in linea con gli obiettivi del Protocollo di Kyoto ed è descritto nella Direttiva Europea 2009/28/CE (Comunemente detta: Direttiva Rinnovabili). Considerato il notevole potenziale a fronte di costi sostenibili di installazione ed esercizio, la geotermia superficiale è stata sfruttata già dalla metà del ventesimo secolo in diversi contesti (geografici, geologici e climatici) e per diverse applicazioni (residenziali, commerciali, industriali, infrastrutturali). Ciononostante, solo a partire dagli anni 2000 la comunità scientifica e il mercato si sono realmente interessati ed affacciati all’argomento, a seguito di sopraggiunte condizioni economiche e tecniche. Una semplice ed immediata dimostrazione di ciò si ritrova nel fatto che al 2012 non esiste ancora un chiaro riferimento tecnico condiviso a livello internazionale, né per la progettazione, né per l’installazione, né per il testing delle diverse applicazioni della geotermia superficiale, questo a fronte di una moltitudine di articoli scientifici pubblicati, impianti realizzati ed associazioni di categoria coinvolte nel primo decennio del ventunesimo secolo. Il presente lavoro di ricerca si colloca all’interno di questo quadro. In particolare verranno mostrati i progressi della ricerca svolta all’interno del Dipartimento di Ingegneria Civile, Ambientale e dei Materiali nei settori della progettazione e del testing dei sistemi geotermici, nonché verranno descritte alcune tipologie di geoscambiatori innovative studiate, analizzate e testate nel periodo di ricerca.
Resumo:
Con la presente tesi si è inteso studiare le possibilità applicative di una particolare tipologia strutturale dotata di isolamento sismico “di piano”, intendendosi con ciò una struttura in cui l'intero piano terra, tramite l'inserimento di opportuni elementi dissipativi isteretici ed in analogia al consueto isolamento sismico di base, agisce da “strato” di protezione passiva per i piani sovrastanti. A riguardo, fra le possibili soluzioni per realizzare effettivamente tale isolamento "di piano" è stata considerata la disposizione di particolari elementi dissipativi isteretici di controvento detti Crecent-Shaped Braces, caratterizzati da una forma bilatera o curva, tale comunque da presentare un'eccentricità non nulla fra l'asse del controvento stesso e la linea congiungente gli estremi.
Resumo:
L’obiettivo del lavoro consiste nell’implementare una metodologia operativa volta alla progettazione di reti di monitoraggio e di campagne di misura della qualità dell’aria con l’utilizzo del laboratorio mobile, ottimizzando le posizioni dei dispositivi di campionamento rispetto a differenti obiettivi e criteri di scelta. La revisione e l’analisi degli approcci e delle indicazioni fornite dalla normativa di riferimento e dai diversi autori di lavori scientifici ha permesso di proporre un approccio metodologico costituito da due fasi operative principali, che è stato applicato ad un caso studio rappresentato dal territorio della provincia di Ravenna. La metodologia implementata prevede l’integrazione di numerosi strumenti di supporto alla valutazione dello stato di qualità dell’aria e degli effetti che gli inquinanti atmosferici possono generare su specifici recettori sensibili (popolazione residente, vegetazione, beni materiali). In particolare, la metodologia integra approcci di disaggregazione degli inventari delle emissioni attraverso l’utilizzo di variabili proxy, strumenti modellistici per la simulazione della dispersione degli inquinanti in atmosfera ed algoritmi di allocazione degli strumenti di monitoraggio attraverso la massimizzazione (o minimizzazione) di specifiche funzioni obiettivo. La procedura di allocazione sviluppata è stata automatizzata attraverso lo sviluppo di un software che, mediante un’interfaccia grafica di interrogazione, consente di identificare delle aree ottimali per realizzare le diverse campagne di monitoraggio