999 resultados para funzioni a variazione limitata ricolorazione di una immagine minimo di funzionali
Resumo:
La tomografia computerizzata (CT) è una metodica di diagnostica per immagini che consiste in una particolare applicazione dei raggi X. Essa, grazie ad una valutazione statistico-matematica (computerizzata) dell'assorbimento di tali raggi da parte delle strutture corporee esaminate, consente di ottenere immagini di sezioni assiali del corpo umano. Nonostante le dosi di radiazioni somministrate durante un esame siano contenute, questa tecnica rimane sconsigliata per pazienti sensibili, perciò nasce il tentativo della tomosintesi: ottenere lo stesso risultato della CT diminuendo le dosi somministrate. Infatti un esame di tomosintesi richiede poche proiezioni distribuite su un range angolare di appena 40°. Se da una parte la possibilità di una ingente diminuzione di dosi e tempi di somministrazione costituisce un grosso vantaggio dal punto di vista medico-diagnostico, dal punto di vista matematico esso comporta un nuovo problema di ricostruzione di immagini: infatti non è banale ottenere risultati validi come per la CT con un numero basso di proiezioni,cosa che va a infierire sulla mal posizione del problema di ricostruzione. Un possibile approccio al problema della ricostruzione di immagini è considerarlo un problema inverso mal posto e studiare tecniche di regolarizzazione opportune. In questa tesi viene discussa la regolarizzazione tramite variazione totale: verranno presentati tre algoritmi che implementano questa tecnica in modi differenti. Tali algoritmi verranno mostrati dal punto di vista matematico, dimostrandone ben posizione e convergenza, e valutati dal punto di vista qualitativo, attraverso alcune immagini ricostruite. Lo scopo è quindi stabilire se ci sia un metodo più vantaggioso e se si possano ottenere buoni risultati in tempi brevi, condizione necessaria per una applicazione diffusa della tomosintesi a livello diagnostico. Per la ricostruzione si è fatto riferimento a problemi-test cui è stato aggiunto del rumore, così da conoscere l'immagine originale e poter vedere quanto la ricostruzione sia ad essa fedele. Il lavoro principale dunque è stata la sperimentazione degli algoritmi su problemi test e la valutazione dei risultati, in particolare per gli algoritmi SGP e di Vogel, che in letteratura sono proposti per problemi di image deblurring.
Resumo:
Le nostre città stanno cambiando profondamente in relazione ad alcuni fenomeni urbani: la crescita della popolazione, i cambiamenti climatici e la scarsità di risorse energetiche stanno modificando lo stile di vita e la forma delle città. E' necessario modificare alcuni preconcetti per concepire, costruire e vivere in un modo nuovo lo spazio urbano; questo processo prende il nome di Smart City. Per realizzare una Smart City è necessaria una visione olistica dei processi e dei fenomeni urbani; designer e urbanisti devono lavorare insieme per visualizzare gli scenari della città del futuro, tenendo conto delle possibilità offerte dalla tecnologia. Il design della comunicazione ha il compito di creare queste visioni, comunicando le idee di città del futuro e interpretando il ruolo di mediatore, per rendere comprensibili i linguaggi delle molteplici discipline. Questa ricerca ha l'obiettivo di realizzare uno strumento destinato ai designer che elaborano gli scenari del futuro, e agli attori del contesto urbano che interpretano quelle visioni, per pianificare efficaci strategie di miglioramento.
Resumo:
Available on demand as hard copy or computer file from Cornell University Library.
Resumo:
Available on demand as hard copy or computer file from Cornell University Library.
Resumo:
Mode of access: Internet.
Resumo:
L'elaborato descrive il progetto, seguito durante il tirocinio in azienda, di definizione di una strategia in ambito sicurezza informatica
Resumo:
Due nuove mode che si stanno propagando sempre più tra gli innumerevoli tentativi di realizzare nuovi formati di pubblicità on-line sono la pubblicità che diventa videogame gratuito, giocabile on-line o scaricabile, chiamata advergame, e la collocazione di pubblicità, oramai nella stragrande maggioranza dinamiche, nei videogames sopratutto di grandi software house, chiamata in-game advertising. Infatti nella società odierna i pubblicitari devono camuffare i consigli per gli acquisti per fare in modo che non vengano rifiutati. L'advergame in passato è stato lodato per il suo metodo innovativo di fare pubblicità. La sua caratteristica è la capacità di divertire e intrattenere l'utente ottenendo una connotazione non intrusiva e un effetto fidelizzante, peculiarità che fa di questo mezzo uno strumento potenzialmente molto valido. Si tratta, in parole povere, di videogames spesso multiplayer, nei quali gli scenari, gli oggetti e i personaggi evocano determinati brand o prodotti. Per quello che invece riguarda l'in-game advertising, si tratta di una forma particolarmente efficace di pubblicità che permette di ottenere dei tassi di ricordo rilevanti e che consente un elevato coinvolgimento emotivo. E' a livello della creazione degli spazi pubblicitari che si scatena la fantasia degli sviluppatori: se nei giochi sportivi basta trasporre in 3D gli spazi pubblicitari presenti solitamente nella realtà, in altre tipologie di gioco è necessario sfruttare parti dell'ambientazione o creare degli intermezzi atti allo scopo. Esempio tipico è quello di manifesti pubblicitari inseriti in spazi di gioco come le locande, soprattutto nei giochi di ruolo e nelle avventure grafiche. Gli investimenti in queste particolari forme di comunicazione, crescono a tassi elevatissimi e il business è molto allettante, non a caso le principali agenzie specializzate in materia sono state acquisite da grandi colossi: AdScape Media da Google e Massive Inc. da Microsoft. L'advergame e l'in-game advertising possono essere usati per lanciare un nuovo prodotto sul mercato, per rafforzare l'immagine del brand e per ottenere un database di utenti disposti ad essere sollecitati per ottenere in modo facile e non dispendioso riscontri su future attività di marketing. Perciò mi sono proposto di analizzare la situazione odierna del marketing, in particolare la parte che riguarda la pubblicità, i vantaggi ottenuti da questa scienza dallo sviluppo tecnologico, fattore che ha determinato la nascita dei due formati pubblicitari in esame e analizzati in seguito. Inoltre effettuerò l'analisi del fenomeno che vede i grandi colossi dell'IT tentare l'inserimento come agenzie intermediarie fra le software house da una parte e le grandi multinazionali dall'altra, queste ultime alla ricerca di nuovi canali più profittevoli dove sponsorizzare le proprie attività. Cercherò infine di capire le scelte di tutti gli attori che girano attorno a questi formati pubblicitari e i benefici che ne traggono per ipotizzare quale sarà il contesto che si andrà a delineare.
Resumo:
Il miglioramento dell’ambiente urbano e, in particolare, della qualità di vita dei cittadini, così come lo scriteriato consumo di territorio in favore della barbara cementificazione delle aree non edificate, sono diventate questioni di particolare rilievo nello scenario globale finalizzato al raggiungimento di un nuovo modello di sviluppo delle città. Gli abitanti dei centri urbani, oggi, sono costretti ad affrontare il sovraffollamento e i problemi ad esso connessi: il traffico, la congestione, l’inquinamento e gli effetti che questi fattori generano alla società. L’area oggetto di questa tesi, luogo a forte vocazione turistica, presenta questo tipo di problematiche soprattutto in corrispondenza della stagione estiva mentre, per il resto dell’anno, si trova ad affrontare il problema opposto di riduzione delle attività e dello spopolamento causate dalla stagionalità. L’espansione edilizia, avvenuta con estrema rapidità e durante un periodo caratterizzato da un forte sviluppo economico , non ha seguito gli indirizzi di un Piano che avrebbe se non altro evitato sprechi di territorio e una struttura così caotica. Tradizionalmente l’idea di densità è sempre stata considerata in maniera negativa rispetto alla questione urbana, in quanto simbolo di un uso intensivo e indiscriminato del territorio e causa della scarsa qualità di vita che caratterizza molte città. In realtà il concetto di densità può assumere un significato diverso: legato all’efficienza, alla qualità e alla sostenibilità. Densificare, infatti, secondo opportune linee guida e in relazione agli standard di qualità, significa sfruttare al meglio le risorse esistenti all’interno delle città, utilizzando il territorio senza sprechi e ricucendo le fratture in grado di generare situazioni di degrado ambientale. Un complesso e minuzioso processo di “densificazione” è in grado di apportare molti benefici al cittadino e alla comunità, come la trasformazione degli spazi inutilizzati o dismessi, la riduzione delle distanze e della mobilità veicolare, la limitazione dell’impatto energetico sull’ambiente e, non ultima, la promozione di una nuova immagine urbana connessa a nuove funzionalità e strutture. Densificare è però condizione necessaria ma non sufficiente per il miglioramento dell’ambiente urbano, infatti il termine “densità” non specifica nulla sul risultato qualitativo e quantitativo che si intende ottenere. “Creazione di un ambiente più propizio alla vita ed intenzionalità estetica sono i caratteri stabili dell’architettura; questi aspetti emergono da ogni ricerca positiva ed illuminano la città come creazione umana” . È in questo senso che deve essere letta la “densificazione” proposta da questa tesi per la riqualificazione di Misano Adriatico. Occorrerà riqualificare soprattutto quelle aree marginali del tutto prive dei requisiti urbani al fine di integrarle maggiormente al resto della città. A essa dovrà essere collegata una nuova visione di quelle che saranno le infrastrutture legate alla mobilità ed i servizi necessari alla vita della comunità. Essi non dovranno più essere visti come elementi di semplice collegamento o episodi isolati distribuiti a caso nel territorio, ma dovranno recuperare quell’importanza strategica che li portavano ad essere l’elemento catalizzatore e la struttura portante dell’espansione urbana. La riqualificazione della città sviluppata in questa tesi segue “la strategia dei luoghi complementari” teorizzata da O.M. Ungers secondo cui: “la città dei -luoghi complementari- è composta dal numero più grande possibile di aree diverse, nelle quali viene sviluppato un aspetto urbano particolare tenendo conto del tutto. In un certo senso è un sistema della -città nella città-. Ogni parte ha le sue proprie caratteristiche, senza però essere perfezionata e conclusa. […] Si cerca la molteplicità, la diversità, non l’unitarietà. La contraddizione, la conflittualità sono parte del sistema e rimangono insolute” . Il fine ultimo di questa tesi è quindi quello di proporre un’idea di città del nostro tempo, un prodotto complesso, non identificabile con un unico luogo ma con un insieme di luoghi che si sovrappongono e si integrano in maniera complementare mantenendo le peculiarità intrinseche del territorio a cui appartengono.
Resumo:
La ricerca svolta ha individuato fra i suoi elementi promotori l’orientamento determinato da parte della comunità europea di dare vita e sostegno ad ambiti territoriali intermedi sub nazionali di tipo regionale all’interno dei quali i sistemi di città potessero raggiungere le massime prestazioni tecnologiche per cogliere gli effetti positivi delle innovazioni. L’orientamento europeo si è confrontato con una realtà storica e geografica molto variata in quanto accanto a stati membri, nei quali le gerarchie fra città sono storicamente radicate e funzionalmente differenziate secondo un ordine che vede la città capitale dominante su città subalterne nelle quali la cultura di dominio del territorio non è né continua né gerarchizzata sussistono invece territori nazionali compositi con una città capitale di riconosciuto potere ma con città di minor dimensione che da secoli esprimono una radicata incisività nella organizzazione del territorio di appartenenza. Alla prima tipologia di stati appartengono ad esempio i Paesi del Nord Europa e l’Inghilterra, esprimendo nella Francia una situazione emblematica, alla seconda tipologia appartengono invece i Paesi dell’aera mediterranea, Italia in primis, con la grande eccezione della Germania. Applicando gli intendimenti comunitari alla realtà locale nazionale, questa tesi ha avviato un approfondimento di tipo metodologico e procedurale sulla possibile organizzazione a sistema di una regione fortemente policentrica nel suo sviluppo e “artificiosamente” rinata ad unità, dopo le vicende del XIX secolo: l’Emilia-Romagna. Anche nelle regioni che si presentano come storicamente organizzate sulla pluralità di centri emergenti, il rapporto col territorio è mediato da centri urbani minori che governano il tessuto cellulare delle aggregazioni di servizi di chiara origine agraria. Questo stato di cose comporta a livello politico -istituzionale una dialettica vivace fra territori voluti dalle istituzioni e territori legittimati dal consolidamento delle tradizioni confermato dall’uso attuale. La crescente domanda di capacità di governo dello sviluppo formulata dagli operatori economici locali e sostenuta dalle istituzioni europee si confronta con la scarsa capacità degli enti territoriali attuali: Regioni, Comuni e Province di raggiungere un livello di efficienza sufficiente ad organizzare sistemi di servizi adeguati a sostegno della crescita economica. Nel primo capitolo, dopo un breve approfondimento sulle “figure retoriche comunitarie”, quali il policentrismo, la governance, la coesione territoriale, utilizzate per descrivere questi fenomeni in atto, si analizzano gli strumenti programmatici europei e lo S.S.S.E,. in primis, che recita “Per garantire uno sviluppo regionale equilibrato nella piena integrazione anche nell’economia mondiale, va perseguito un modello di sviluppo policentrico, al fine di impedire un’ulteriore eccessiva concentrazione della forza economica e della popolazione nei territori centrali dell’UE. Solo sviluppando ulteriormente la struttura, relativamente decentrata, degli insediamenti è possibile sfruttare il potenziale economico di tutte le regioni europee.” La tesi si inserisce nella fase storica in cui si tenta di definire quali siano i nuovi territori funzionali e su quali criteri si basa la loro riconoscibilità; nel tentativo di adeguare ad essi, riformandoli, i territori istituzionali. Ai territori funzionali occorre riportare la futura fiscalità, ed è la scala adeguata per l'impostazione della maggior parte delle politiche, tutti aspetti che richiederanno anche la necessità di avere una traduzione in termini di rappresentanza/sanzionabilità politica da parte dei cittadini. Il nuovo governo auspicato dalla Comunità Europea prevede una gestione attraverso Sistemi Locali Territoriali (S.Lo.t.) definiti dalla combinazione di milieu locale e reti di attori che si comportano come un attore collettivo. Infatti il secondo capitolo parte con l’indagare il concetto di “regione funzionale”, definito sulla base della presenza di un nucleo e di una corrispondente area di influenza; che interagisce con altre realtà territoriali in base a relazioni di tipo funzionale, per poi arrivare alla definizione di un Sistema Locale territoriale, modello evoluto di regione funzionale che può essere pensato come una rete locale di soggetti i quali, in funzione degli specifici rapporti che intrattengono fra loro e con le specificità territoriali del milieu locale in cui operano e agiscono, si comportano come un soggetto collettivo. Identificare un sistema territoriale, è una condizione necessaria, ma non sufficiente, per definire qualsiasi forma di pianificazione o governance territoriale, perchè si deve soprattutto tener conto dei processi di integrazione funzionale e di networking che si vengono a generare tra i diversi sistemi urbani e che sono specchio di come il territorio viene realmente fruito., perciò solo un approccio metodologico capace di sfumare e di sovrapporre le diverse perimetrazioni territoriali riesce a definire delle aree sulle quali definire un’azione di governo del territorio. Sin dall’inizio del 2000 il Servizio Sviluppo Territoriale dell’OCSE ha condotto un’indagine per capire come i diversi paesi identificavano empiricamente le regioni funzionali. La stragrande maggioranza dei paesi adotta una definizione di regione funzionale basata sul pendolarismo. I confini delle regioni funzionali sono stati definiti infatti sulla base di “contorni” determinati dai mercati locali del lavoro, a loro volta identificati sulla base di indicatori relativi alla mobilità del lavoro. In Italia, la definizione di area urbana funzionale viene a coincidere di fatto con quella di Sistema Locale del Lavoro (SLL). Il fatto di scegliere dati statistici legati a caratteristiche demografiche è un elemento fondamentale che determina l’ubicazione di alcuni servizi ed attrezzature e una mappa per gli investimenti nel settore sia pubblico che privato. Nell’ambito dei programmi europei aventi come obiettivo lo sviluppo sostenibile ed equilibrato del territorio fatto di aree funzionali in relazione fra loro, uno degli studi di maggior rilievo è stato condotto da ESPON (European Spatial Planning Observation Network) e riguarda l’adeguamento delle politiche alle caratteristiche dei territori d’Europa, creando un sistema permanente di monitoraggio del territorio europeo. Sulla base di tali indicatori vengono costruiti i ranking dei diversi FUA e quelli che presentano punteggi (medi) elevati vengono classificati come MEGA. In questo senso, i MEGA sono FUA/SLL particolarmente performanti. In Italia ve ne sono complessivamente sei, di cui uno nella regione Emilia-Romagna (Bologna). Le FUA sono spazialmente interconnesse ed è possibile sovrapporre le loro aree di influenza. Tuttavia, occorre considerare il fatto che la prossimità spaziale è solo uno degli aspetti di interazione tra le città, l’altro aspetto importante è quello delle reti. Per capire quanto siano policentrici o monocentrici i paesi europei, il Progetto Espon ha esaminato per ogni FUA tre differenti parametri: la grandezza, la posizione ed i collegamenti fra i centri. La fase di analisi della tesi ricostruisce l’evoluzione storica degli strumenti della pianificazione regionale analizzandone gli aspetti organizzativi del livello intermedio, evidenziando motivazioni e criteri adottati nella suddivisione del territorio emilianoromagnolo (i comprensori, i distretti industriali, i sistemi locali del lavoro…). La fase comprensoriale e quella dei distretti, anche se per certi versi effimere, hanno avuto comunque il merito di confermare l’esigenza di avere un forte organismo intermedio di programmazione e pianificazione. Nel 2007 la Regione Emilia Romagna, nell’interpretare le proprie articolazioni territoriali interne, ha adeguato le proprie tecniche analitiche interpretative alle direttive contenute nel Progetto E.S.P.O.N. del 2001, ciò ha permesso di individuare sei S.Lo.T ( Sistemi Territoriali ad alta polarizzazione urbana; Sistemi Urbani Metropolitani; Sistemi Città – Territorio; Sistemi a media polarizzazione urbana; Sistemi a bassa polarizzazione urbana; Reti di centri urbani di piccole dimensioni). Altra linea di lavoro della tesi di dottorato ha riguardato la controriprova empirica degli effettivi confini degli S.Lo.T del PTR 2007 . Dal punto di vista metodologico si è utilizzato lo strumento delle Cluster Analisys per impiegare il singolo comune come polo di partenza dei movimenti per la mia analisi, eliminare inevitabili approssimazioni introdotte dalle perimetrazioni legate agli SLL e soprattutto cogliere al meglio le sfumature dei confini amministrativi dei diversi comuni e province spesso sovrapposti fra loro. La novità è costituita dal fatto che fino al 2001 la regione aveva definito sullo stesso territorio una pluralità di ambiti intermedi non univocamente circoscritti per tutte le funzioni ma definiti secondo un criterio analitico matematico dipendente dall’attività settoriale dominante. In contemporanea col processo di rinnovamento della politica locale in atto nei principali Paesi dell’Europa Comunitaria si va delineando una significativa evoluzione per adeguare le istituzioni pubbliche che in Italia comporta l’attuazione del Titolo V della Costituzione. In tale titolo si disegna un nuovo assetto dei vari livelli Istituzionali, assumendo come criteri di riferimento la semplificazione dell’assetto amministrativo e la razionalizzazione della spesa pubblica complessiva. In questa prospettiva la dimensione provinciale parrebbe essere quella tecnicamente più idonea per il minimo livello di pianificazione territoriale decentrata ma nel contempo la provincia come ente amministrativo intermedio palesa forti carenze motivazionali in quanto l’ente storico di riferimento della pianificazione è il comune e l’ente di gestione delegato dallo stato è la regione: in generale troppo piccolo il comune per fare una programmazione di sviluppo, troppo grande la regione per cogliere gli impulsi alla crescita dei territori e delle realtà locali. Questa considerazione poi deve trovare elementi di compatibilità con la piccola dimensione territoriale delle regioni italiane se confrontate con le regioni europee ed i Laender tedeschi. L'individuazione di criteri oggettivi (funzionali e non formali) per l'individuazione/delimitazione di territori funzionali e lo scambio di prestazioni tra di essi sono la condizione necessaria per superare l'attuale natura opzionale dei processi di cooperazione interistituzionale (tra comuni, ad esempio appartenenti allo stesso territorio funzionale). A questo riguardo molto utile è l'esperienza delle associazioni, ma anche delle unioni di comuni. Le esigenze della pianificazione nel riordino delle istituzioni politico territoriali decentrate, costituiscono il punto finale della ricerca svolta, che vede confermato il livello intermedio come ottimale per la pianificazione. Tale livello è da intendere come dimensione geografica di riferimento e non come ambito di decisioni amministrative, di governance e potrebbe essere validamente gestito attraverso un’agenzia privato-pubblica dello sviluppo, alla quale affidare la formulazione del piano e la sua gestione. E perché ciò avvenga è necessario che il piano regionale formulato da organi politici autonomi, coordinati dall’attività dello stato abbia caratteri definiti e fattibilità economico concreta.
Resumo:
Il lavoro di ricerca tenta di inquadrare sotto nuove prospettive una problematica ormai classica all’interno della semiotica della pubblicità: l’analisi dello spot. I punti chiave del lavoro – e la pretesa di una certa differenza rispetto a lavori con oggetti affini – consistono sostanzialmente in tre aspetti. Innanzitutto, vi è un ritorno alle origini flochiane nella misura in cui non solo il contesto complessivo e le finalità che la ricerca si propone sono fortemente ancorati all’interno di obiettivi di marketing, ma tutto lo studio nella sua interezza nasce dal dialogo concreto tra metodologia di analisi semiotica e prassi concreta all’interno degli istituti di ricerca di mercato. La tesi non presenta quindi una collezione di analisi di testi pubblicitari condotte in modo autoriferito, quanto piuttosto di “messe alla prova” della metodologia, funzionali alla definizione di disegni di ricerca per la marketing research. Questo comporta un dialogo piuttosto stretto con metodologie affini (sociologia qualitativa e quantitativa, psicologia motivazionale, ecc.) nella convinzione che la priorità accordata all’oggetto di analisi sia sovraordinata rispetto all’ortodossia degli strumenti metodologici. In definitiva, lo spot è sempre e comunque analizzato all’interno di una prospettiva brand-centrica che ha ben in mente la semiotica della situazione di consumo rispetto alla quale lo spot agisce da leva di valorizzazione per l’acquisto. In secondo luogo, gli oggetti analizzati sono piuttosto vari e differenziati: non solo lo spot nella sua versione audiovisiva definitiva (il “girato”), ma anche storyboard, animatic, concept (di prodotto e di comunicazione). La prospettiva generativa greimasiana va a innestarsi su problematiche legate (anche) alla genesi dello spot, alla sua progettazione e riprogettazione/ottimizzazione. La tesi mostra quindi come una semiotica per le consulenze di marketing si diriga sul proprio oggetto ponendogli domande ben circoscritte e finalizzate a un obiettivo specifico, sostanzialmente derivato dal brief contenente le intenzioni comunicazionali del cliente-azienda. Infine, pur rimanendo all’interno di una teoria semiotica generativa (sostanzialmente greimasiana e post greimasiana), la ricerca adotta una prospettiva intrinsecamente multidisciplinare che se da un lato guarda a problematiche legate al marketing, al branding e alla comunicazione pubblicitaria e d’impresa tout court, dall’altro ritorna alle teorie dell’audiovisivo, mostrando affinità e differenze rispetto a forme audiovisive standard (il “film”) e a mutuazioni da nuove estetiche (la neotelevisione, il videoclip, ecc). La tesi si mostra solidamente convinta del fatto che per parlare di efficacia discorsiva sia imprescindibile approfondire le tematiche riguardanti il sincretismo espressivo e le specifiche modalità di manifestazione stilistica. In questo contesto, il lavoro si compone di quattro grandi aree tematiche. Dopo una breve introduzione sull’attualità del tema “spot” e sulla prospettiva analiticometodologica adottata (§ 1.), nel secondo capitolo si assume teoreticamente che i contenuti dello spot derivino da una specifica (e di volta in volta diversa) creolizzazione tra domini tematici derivanti dalla marca, dal prodotto (inteso tanto come concept di prodotto, quanto come prodotto già “vestito” di una confezione) e dalle tendenze socioculturali. Le tre dimensioni vengono valutate in relazione all’opposizione tra heritage, cioè continuità rispetto al passato e ai concorrenti e vision, cioè discontinuità rispetto alla propria storia comunicazionale e a quella dei concorrenti. Si esplorano inoltre altri fattori come il testimonial-endorser che, in quanto elemento già intrinsecamente foriero di elementi di valorizzazione, va a influire in modo rilevante sul complesso tematico e assiologico della pubblicità. Essendo la sezione della tesi che prende in considerazione il piano specificatamente contenutistico dello spot, questa parte diventa quindi anche l’occasione per ritornare sul modello delle assiologie del consumo di Jean-Marie Floch, approntando alcune critiche e difendendo invece un modello che – secondo la prospettiva qui esposta – contiene punti di attualità ineludibili rispetto a schematizzazioni che gli sono successive e in qualche modo debitrici. Segue una sezione (§ 3.) specificatamente dedicata allo svolgimento e dis-implicazione del sincretismo audiovisivo e quindi – specularmente alla precedente, dedicata alle forme e sostanze del contenuto – si concentra sulle dinamiche espressive. Lo spot viene quindi analizzato in quanto “forma testuale” dotata di alcune specificità, tra cui in primis la brevità. Inoltre vengono approfondite le problematiche legate all’apporto di ciascuna specifica sostanza: il rapporto tra visivo e sonoro, lo schermo e la sua multiprospetticità sempre più evidente, il “lavoro” di punteggiatura della musica, ecc. E su tutto il concetto dominante di montaggio, intrinsecamente unito a quello di ritmo. Il quarto capitolo ritorna in modo approfondito sul rapporto tra semiotica e ricerca di mercato, analizzando sia i rapporti di reciproca conoscenza (o non conoscenza), sia i nuovi spazi di intervento dell’analisi semiotica. Dopo aver argomentato contro un certo scetticismo circa l’utilità pragmatica dell’analisi semiotica, lo studio prende in esame i tradizionali modelli di valutazione e misurazione dell’efficacia pubblicitaria (pre- e post- test) cercando di semiotizzarne il portato. Ne consegue la proposta di disegni di ricerca semiotici modulari: integrabili tra loro e configurabili all’interno di progetti semio-quali-quantitativi. Dopo aver ridefinito le possibilità di un’indagine semiotica sui parametri di efficacia discorsiva, si procede con l’analisi di un caso concreto (§ 5.): dato uno spot che si è dimostrato efficace agli occhi dell’azienda committente, quali possono essere i modi per replicarne i fattori di successo? E come spiegare invece quelli di insuccesso delle campagne successive che – almeno teoricamente – erano pensate per capitalizzare l’efficacia della prima? Non si tratta quindi di una semiotica ingenuamente chiamata a “misurare” l’efficacia pubblicitaria, che evidentemente la marketing research analizza con strumenti quantitativi assodati e fondati su paradigmi di registrazione di determinati parametri sul consumatore (ricordo spontaneo e sollecitato, immagine di marca risultante nella mente di user e prospect consumer, intenzione d’acquisto stimolata). Piuttosto l’intervento qui esposto si preoccupa più funzionalmente a spiegare quali elementi espressivi, discorsivi, narrativi, siano stati responsabili (e quindi prospetticamente potranno condizionare in positivo o in negativo in futuro) la ricezione dello spot. L’analisi evidenzia come elementi apparentemente minimali, ancorati a differenti livelli di pertinenza siano in grado di determinare una notevole diversità negli effetti di senso. Si tratta quindi di un problema di mancata coerenza tra intenzioni comunicative e testo pubblicitario effettivamente realizzato. La risoluzione di tali questioni pragmatiche conduce ad approfondimenti teoricometodologici su alcuni versanti particolarmente interessanti. In primo luogo, ci si interroga sull’apporto della dimensione passionale nella costruzione dell’efficacia e nel coinvolgimento dello spettatore/consumatore. Inoltre – e qui risiede uno dei punti di maggior sintesi del lavoro di tesi – si intraprende una proficua discussione dei modelli di tipizzazione dei generi pubblicitari, intesi come forme discorsive. Si fanno quindi dialogare modelli diversi ma in qualche misura coestensivi e sovrapponibili come quelli di Jean Marie Floch, Guido Ferraro, Cosetta Saba e Chiara Giaccardi. Si perviene così alla costruzione di un nuovo modello sintetico, idealmente onnipervasivo e trasversale alle prospettive analizzate.
Resumo:
L’ecografia è la metodica diagnostica più utilizzata come screening e follow-up nei pazienti epatopatici con o senza lesioni focali e questo grazie alle sue peculiari caratteristiche, che sono date dall’essere real-time, maneggevole, priva di radiazioni ionizzanti e con bassi costi. Tuttavia tale metodica se confrontata con la TC o la RMN, può avere importanti limiti, quali l’impossibilità di visualizzare piccole lesioni localizzate in aree anatomicamente “difficili” o in pazienti obesi, che sono già state identificate con altre tecniche, come la TC o la RMN. Per superare queste limitazioni sono stati introdotti dei sistemi di “fusione d’immagine” che consentono di sincronizzare in tempo reale una metodica real time con bassa risoluzione spaziale come l’ecografia ed una statica ad alta risoluzione come la TC o la RMN. Ciò si ottiene creando attorno al paziente un piccolo campo elettromagnetico costituito da un generatore e da un rilevatore applicato al trasduttore ecografico ed introducendo in un computer abbinato all’ecografo il “volume rendering” dell’addome del paziente ottenuto mediante TC multistrato o RM. Il preciso “ appaiamento spaziale “ delle due metodiche si ottiene individuando in entrambe lo stesso piano assiale di riferimento e almeno 3-4 punti anatomici interni. Tale sistema di fusione d’immagine potrebbe essere molto utile in campo epatologico nella diagnostica non invasiva del piccolo epatocarcinoma, che secondo le ultime linee guida, nei noduli di dimensioni fra 1 e 2 cm, richiede una concordanza nel comportamento contrastografico della lesione in almeno due tecniche d’immagine. Lo scopo del nostro lavoro è stato pertanto quello di valutare, in pazienti epatopatici, il contributo che tale sistema può dare nell’identificazione e caratterizzazione di lesioni inferiori a 20 mm, che erano già state identificate alla TC o alla RMN come noduli sospetti per HCC, ma che non erano stati visualizzati in ecografia convenzionale. L’eventuale re-identificazione con l’ecografia convenzionale dei noduli sospetti per essere HCC, può permettere di evitare, alla luce dei criteri diagnostici non invasivi un’ ulteriore tecnica d’immagine ed eventualmente la biopsia. Pazienti e Metodi: 17 pazienti cirrotici (12 Maschi; 5 Femmine), con età media di 68.9 +/- 6.2 (SD) anni, in cui la TC e la RMN con mezzo di contrasto avevano identificato 20 nuove lesioni focali epatiche, inferiori a 20 mm (13,6 +/- 3,6 mm), sospette per essere epatocarcinomi (HCC), ma non identificate all’ecografia basale (eseguita in cieco rispetto alla TC o alla RMN) sono stati sottoposti ad ecografia senza e con mezzo di contrasto, focalizzata su una zona bersaglio identificata tramite il sistema di fusione d’immagini, che visualizza simultaneamente le immagini della TC e della RMN ricostruite in modalità bidimensionale ( 2D), tridimensionale ( 3 D) e real-time. La diagnosi finale era stata stabilita attraverso la presenza di una concordanza diagnostica, secondo le linee guida internazionali o attraverso un follow-up nei casi di discordanza. Risultati: Una diagnosi non invasiva di HCC è stata raggiunta in 15/20 lesioni, inizialmente sospettate di essere HCC. Il sistema di fusione ha identificato e mostrato un comportamento contrastografico tipico in 12/15 noduli di HCC ( 80%) mentre 3/15 HCC (20%) non sono stati identificati con il sistema di fusione d’immagine. Le rimanenti 5/20 lesioni non sono state visualizzate attraverso i sistemi di fusione d’immagine ed infine giudicate come falsi positivi della TC e della RMN, poiché sono scomparse nei successivi mesi di follow-up e rispettivamente dopo tre, sei, nove, dodici e quindici mesi. Conclusioni: I nostri risultati preliminari mostrano che la combinazione del sistema di fusione dell’immagine associata all’ecografia senza e con mezzo di contrasto (CEUS), migliora il potenziale dell’ecografia nell’identificazione e caratterizzazione dell’HCC su fegato cirrotico, permettendo il raggiungimento di una diagnosi, secondo criteri non invasivi e slatentizzazndo casi di falsi positivi della TC e della RMN.
Resumo:
La temperatura influenza molti dei processi fisiologici degli organismi marini e, considerato che la riproduzione dei coralli sembrerebbe essere sensibile agli stress, è necessario comprendere come questa possa reagire ai cambiamenti climatici globali per riuscire a prevedere le future risposte delle popolazioni. Leptopsammia pruvoti (Scleractinia, Dendrophylliidae) è un corallo solitario non zooxantellato presente in Mediterraneo e lungo le coste Atlantiche dal Portogallo alla Gran Bretagna meridionale, dalla superficie fino a 70 metri di profondità.. È un organismo gonocorico con fecondazione interna. In questo lavoro di tesi sono stati analizzati gli aspetti della gametogenesi di L. pruvoti a diverse latitudini per ottenere risultati preliminari riguardanti le possibili correlazioni tra attività riproduttiva e parametri ambientali (temperatura e irradianza). Tale studio si colloca all’interno del progetto europeo sul riscaldamento globale e biologia dei coralli FP7–IDEAS-ERC “Corals and Global Warming: The Mediterranean versus the Red Sea” (CoralWarm). I risultati presentati in questo lavoro sono relativi a cinque popolazioni di L. pruvoti (Genova, Calafuria, Palinuro, Scilla e Pantelleria) disposte lungo un gradiente latitudinale di temperatura e irradianza nel versante occidentale della penisola italiana. I campioni sono stati raccolti mediante campionamenti mensili effettuati tramite immersioni subacquee. Su ogni campione sono state effettuate misurazioni biometriche e analisi cito-istometriche. Nelle popolazioni analizzate i parametri riproduttivi (fecondità, abbondanza, indice gonadico, dimensione) sono stati messi in relazione con la temperatura di fondo (DT, °C) e l’irradianza solare (W/m2) peculiari di ogni sito. L. pruvoti ha mostrato una sessualità gonocorica in tutti i siti considerati. In tutte le popolazioni, la presenza di due stock di ovociti e la distribuzione degli stadi di maturazione degli spermiari durante le fasi di attività riproduttiva, nell’arco dell’anno, hanno permesso di definire un periodo di reclutamento e uno di maturità gonadica, suggerendo che tali eventi siano influenzati dai cambiamenti stagionali della temperatura dell’acqua e del fotoperiodo. Nel periodo di reclutamento, la fecondità presentava una debole correlazione positiva con i parametri ambientali considerati. Al momento della maturità gonadica gli ovociti erano di dimensioni maggiori e meno numerosi rispetto al periodo precedente, nelle popolazioni con una maggiore temperatura e irradianza. Una possibile interpretazione potrebbe essere l’esistenza di un processo di fusione degli ovociti nel periodo di maturità gonadica che sembrerebbe più marcato nelle popolazioni più calde e maggiormente irradiate. La spermatogenesi, diversamente, non ha delineato finora un pattern chiaramente interpretabile. Con i dati attualmente in nostro possesso, non possiamo tuttavia escludere che le differenze riscontrate nelle dimensioni di ovociti e spermiari lungo il gradiente latitudinale considerato siano dovute a un lieve sfasamento nel raggiungimento della maturità gonadica, pur mantenendo la medesima stagionalità nel ciclo riproduttivo delle diverse popolazioni. Ulteriori studi saranno necessari per poter meglio comprendere i complessi meccanismi che regolano e controllano i processi riproduttivi al variare dei parametri ambientali. In questo modo sarà possibile considerare i risulti ottenuti nel contesto dei cambiamenti climatici globali.
Resumo:
I poriferi rappresentano un importante campo di ricerca anche in ambito applicativo in quanto potenzialmente utili come fonte di metaboliti secondari da impiegarsi in ambito clinico (antitumorali, antibiotici, antivirali, ecc.) e industriale (antifouling). I processi di biosilicificazione interessano invece per aspetti legati alle biotecnologie marine. Questo Phylum ha un importante ruolo strutturale e funzionale nell’ecologia dei popolamenti bentonici, in quanto può essere dominante in numerosi habitat e svolgere un ruolo ecologico fondamentale nelle dinamiche degli ecosistemi marini. Per questo, la variazione spaziale e temporale della loro abbondanza può avere effetti considerevoli su altri membri della comunità. Lo studio delle dinamiche di popolazione e del ciclo riproduttivo dei poriferi potrebbe permettere di valutare come i cambiamenti climatici ne influenzino la crescita e la riproduzione e potrebbe quindi fornire una base per lo sviluppo di corrette tecniche di gestione ambientale. La spugna Axinella polypoides è inserita all’interno delle liste di protezione della Convenzione di Berna e di Barcellona, dove sono elencate le specie da proteggere perché minacciate o in pericolo di estinzione. Questa specie, avendo una morfologia eretta, è fortemente minacciata soprattutto da attività antropiche quali pesca e ancoraggi, ma nonostante questo la letteratura relativa ad essa è scarsa, La sua importanza è legata soprattutto al recente utilizzo come modello per numerosi esperimenti. A. polypoides rappresenta, infatti, il più basso livello nella scala evolutiva in cui sono stati rinvenuti meccanismi biochimici cellulari di reazione all’aumento di temperatura (incremento dell’attività ADP-ribosil ciclasica, sintesi di ossido nitrico) tipici degli organismi superiori. Lo scopo di questa tesi è di aumentare le conoscenze sull’ecologia e sulla biologia di questo porifero, al fine di consentire una migliore predisposizione di eventuali piani di tutela. Dallo studio delle colonie effettuato presso l’Isola Gallinara (SV), emerge una dinamica di crescita lenta ed un ciclo riproduttivo estivo, coerentemente con quanto osservato per altre specie mediterranee del genere Axinella. Le analisi istologiche effettuate hanno mostrato variabilità temporale nella densità e nella dimensione di particolari cellule sferulose, che si ipotizza siano collegate a fenomeni di proliferazione cellulare e rigenerazione in seguito a danni. È stata individuata inoltre la presenza di una particolare tipologia cellulare dendritica la cui funzione si ritiene abbia affinità con le funzioni sensoriali di Phyla superiori. Queste osservazioni, e l’evidente vulnerabilità della specie agli impatti antropici, hanno evidenziato la necessità di sviluppare adeguati piani di monitoraggio e di conservazione.
Resumo:
A causa della limitata estensione del campo di vista del sistema, con un microscopio ottico tradizionale non è possibile acquisire una singola immagine completamente a fuoco se l’oggetto è caratterizzato da una profondità non trascurabile. Fin dagli anni ’70, il problema dell’estensione della profondità di fuoco è stato ampiamente trattato in letteratura e molti metodi sono stati proposti per superare questo limite. Tuttavia, è molto difficile riuscire a decretare quale metodo risulti essere il migliore in una specifica applicazione, a causa della mancanza di una metrica validata e adatta ad essere utilizzata anche in casi reali, dove generalmente non si ha a disposizione un’immagine di riferimento da considerare come “la verità” (ground truth). L’Universal Quality Index (UQI) è ampiamente utilizzato in letteratura per valutare la qualità dei risultati in processi di elaborazione di immagini. Tuttavia, per poter calcolare questo indice è necessaria una ground truth. In effetti, sono state proposte in letteratura alcune estensioni dell’UQI per valutare il risultato dei metodi di fusione anche senza immagine di riferimento, ma nessuna analisi esaustiva è stata proposta per dimostrare la loro equivalenza con l’UQI standard nel valutare la qualità di un’immagine. In questo lavoro di Tesi, partendo dai limiti dei metodi attualmente utilizzati per l'estensione della profondità di campo di un microscopio, ed esposti in letteratura, per prima cosa è stato proposto un nuovo metodo, basato su approccio spaziale e fondato su analisi locale del segnale appositamente filtrato. Attraverso l’uso di sequenze di immagini sintetiche, delle quali si conosce la ground truth, è stato dimostrato, utilizzando metriche comuni in image processing, che il metodo proposto è in grado di superare le performance dei metodi allo stato dell'arte. In seguito, attraverso una serie di esperimenti dedicati, è stato provato che metriche proposte e ampiamente utilizzate in letteratura come estensione dell'UQI per valutare la qualità delle immagini prodotte da processi di fusione, sebbene dichiarate essere sue estensioni, non sono in grado di effettuare una valutazione quale quella che farebbe l'UQI standard. E’ quindi stato proposto e validato un nuovo approccio di valutazione che si è dimostrato in grado di classificare i metodi di fusione testati così come farebbe l’UQI standard, ma senza richiedere un’immagine di riferimento. Infine, utilizzando sequenze di immagini reali acquisite a differenti profondità di fuoco e l’approccio di valutazione validato, è stato dimostrato che il metodo proposto per l’estensione della profondità di campo risulta sempre migliore, o almeno equivalente, ai metodi allo stato dell’arte.
Resumo:
Il territorio di Ferrara è caratterizzata da un’area ad elevata concentrazione di stabilimenti a rischio di incidente rilevante e dalla movimentazione di ingenti quantitativi di sostanze pericolose sulla rete stradale, ferroviaria ed in condotta. Basti pensare che nel solo Comune di Ferrara sono ben 5 le aziende che, per tipologia e quantità di sostanze presenti, rientrano nel campo di applicazione del D.Lgs. 334/99 (“Attuazione delle direttiva 96/82/CE relativa al controllo dei pericoli di incidenti rilevanti connessi con determinate sostanze pericolose”). Per questo motivo, il 24 febbraio 2012 è stato sottoscritto a Ferrara il protocollo d’intesa per l’avvio dello Studio di Sicurezza Integrato d’Area (SSIA) del polo chimico ferrarese da parte della Regione Emilia Romagna, dell’Agenzia Regionale di Protezione Civile, del Comune e della Provincia di Ferrara, dell’Ufficio Territoriale del Governo, della Direzione Regionale dei Vigili del Fuoco, dell’Agenzia Regionale Prevenzione e Ambiente e delle stesse aziende del polo chimico. L’Università di Bologna, tramite il Dipartimento di Ingegneria Chimica, Mineraria e delle Tecnologie Ambientali presso il quale è stato svolto il presente lavoro di tesi, prende parte al Consiglio Scientifico ed al Comitato Tecnico del SSIA, aventi funzioni di direzione e di gestione operativa della ricerca. Il progetto è modellato sulla precedente esperienza realizzata in regione per il polo industriale di Ravenna (progetto ARIPAR), la cui validità è stata ampiamente riconosciuta a livello nazionale ed internazionale. L’idea alla base dello studio deriva dal fatto che per avere un quadro della situazione in un’area così complessa, è necessario non solo valutare l’insieme dei rischi presenti, ma anche le loro correlazioni e le conseguenze sul territorio di riferimento. In un’analisi di rischio d’area risulta di primaria importanza l’analisi della vulnerabilità del territorio circostante il sito industriale, in quanto scenari attesi di danno di pari severità assumono una differente valenza in relazione all’effettiva presenza di bersagli nell’area di interesse. Per tale motivo il presente lavoro di tesi ha avuto l’obiettivo di istruire il censimento della vulnerabilità del territorio di Ferrara, con riferimento ai bersagli “uomo”, “ambiente” e “beni materiali”. In primo luogo si è provveduto, sulla base delle distanze di danno degli scenari incidentali attesi, a definire l’estensione dell’area in cui effettuare il censimento. Successivamente si è approfondito il censimento della vulnerabilità del bersaglio “uomo”, prendendo in considerazione sia la popolazione residente, sia i centri di vulnerabilità localizzati all’interno dell’area potenzialmente interessata da incidenti rilevanti. I centri di vulnerabilità non sono altro che luoghi ad elevata densità di persone (ad esempio scuole, ospedali, uffici pubblici, centri commerciali), spesso caratterizzati da una maggiore difficoltà di evacuazione, sia per l’elevato numero di persone presenti sia per la ridotta mobilità delle stesse. Nello specifico si è proceduto alla creazione di un database (grazie all’utilizzo del software ArcView GIS 3.2) di tutti i centri di vulnerabilità presenti, ai quali è stato possibile associare una precisa localizzazione territoriale ed altri dati di carattere informativo. In una fase successiva dello SSIA sarà possibile associare ai centri di vulnerabilità le relative categorie di popolazione, indicando per ciascuna il numero dei presenti. I dati inseriti nel database sono stati forniti in massima parte dal Comune di Ferrara e, in misura più limitata, dall’Agenzia Regionale di Protezione Civile e dalla Camera di Commercio. Presentando spesso tali dati un’aggregazione diversa da quella necessaria ai fini dello SSIA, è stato necessario un intenso lavoro di analisi, di depurazione e di riaggregazione allo scopo di renderli disponibili in una forma fruibile per lo SSIA stesso. Da ultimo si è effettuata una valutazione preliminare della vulnerabilità dei bersagli “ambiente” e “beni materiali”. Per quanto riguarda l’ambiente, si sono messe in luce le aree sottoposte a vincoli di tutela naturalistica e quindi particolarmente vulnerabili in caso di un rilascio accidentale di sostanze pericolose. Per il bersaglio “beni materiali”, non essendo stato possibile reperire dati, si è sono evidenziate le categorie di beni da censire. In conclusione, è possibile affermare che lo studio effettuato in questo lavoro di tesi, ha consentito non solo di conseguire l’obiettivo inizialmente stabilito – l’istruzione del censimento della vulnerabilità del territorio di Ferrara - ma ha contribuito anche alla definizione di una metodologia per il censimento di aree vaste che potrà essere utilmente applicata ad altre zone del territorio nazionale.