38 resultados para Processo Decisionale Mercato Competizione Modello
Resumo:
Il lavoro di ricerca tenta di inquadrare sotto nuove prospettive una problematica ormai classica all’interno della semiotica della pubblicità: l’analisi dello spot. I punti chiave del lavoro – e la pretesa di una certa differenza rispetto a lavori con oggetti affini – consistono sostanzialmente in tre aspetti. Innanzitutto, vi è un ritorno alle origini flochiane nella misura in cui non solo il contesto complessivo e le finalità che la ricerca si propone sono fortemente ancorati all’interno di obiettivi di marketing, ma tutto lo studio nella sua interezza nasce dal dialogo concreto tra metodologia di analisi semiotica e prassi concreta all’interno degli istituti di ricerca di mercato. La tesi non presenta quindi una collezione di analisi di testi pubblicitari condotte in modo autoriferito, quanto piuttosto di “messe alla prova” della metodologia, funzionali alla definizione di disegni di ricerca per la marketing research. Questo comporta un dialogo piuttosto stretto con metodologie affini (sociologia qualitativa e quantitativa, psicologia motivazionale, ecc.) nella convinzione che la priorità accordata all’oggetto di analisi sia sovraordinata rispetto all’ortodossia degli strumenti metodologici. In definitiva, lo spot è sempre e comunque analizzato all’interno di una prospettiva brand-centrica che ha ben in mente la semiotica della situazione di consumo rispetto alla quale lo spot agisce da leva di valorizzazione per l’acquisto. In secondo luogo, gli oggetti analizzati sono piuttosto vari e differenziati: non solo lo spot nella sua versione audiovisiva definitiva (il “girato”), ma anche storyboard, animatic, concept (di prodotto e di comunicazione). La prospettiva generativa greimasiana va a innestarsi su problematiche legate (anche) alla genesi dello spot, alla sua progettazione e riprogettazione/ottimizzazione. La tesi mostra quindi come una semiotica per le consulenze di marketing si diriga sul proprio oggetto ponendogli domande ben circoscritte e finalizzate a un obiettivo specifico, sostanzialmente derivato dal brief contenente le intenzioni comunicazionali del cliente-azienda. Infine, pur rimanendo all’interno di una teoria semiotica generativa (sostanzialmente greimasiana e post greimasiana), la ricerca adotta una prospettiva intrinsecamente multidisciplinare che se da un lato guarda a problematiche legate al marketing, al branding e alla comunicazione pubblicitaria e d’impresa tout court, dall’altro ritorna alle teorie dell’audiovisivo, mostrando affinità e differenze rispetto a forme audiovisive standard (il “film”) e a mutuazioni da nuove estetiche (la neotelevisione, il videoclip, ecc). La tesi si mostra solidamente convinta del fatto che per parlare di efficacia discorsiva sia imprescindibile approfondire le tematiche riguardanti il sincretismo espressivo e le specifiche modalità di manifestazione stilistica. In questo contesto, il lavoro si compone di quattro grandi aree tematiche. Dopo una breve introduzione sull’attualità del tema “spot” e sulla prospettiva analiticometodologica adottata (§ 1.), nel secondo capitolo si assume teoreticamente che i contenuti dello spot derivino da una specifica (e di volta in volta diversa) creolizzazione tra domini tematici derivanti dalla marca, dal prodotto (inteso tanto come concept di prodotto, quanto come prodotto già “vestito” di una confezione) e dalle tendenze socioculturali. Le tre dimensioni vengono valutate in relazione all’opposizione tra heritage, cioè continuità rispetto al passato e ai concorrenti e vision, cioè discontinuità rispetto alla propria storia comunicazionale e a quella dei concorrenti. Si esplorano inoltre altri fattori come il testimonial-endorser che, in quanto elemento già intrinsecamente foriero di elementi di valorizzazione, va a influire in modo rilevante sul complesso tematico e assiologico della pubblicità. Essendo la sezione della tesi che prende in considerazione il piano specificatamente contenutistico dello spot, questa parte diventa quindi anche l’occasione per ritornare sul modello delle assiologie del consumo di Jean-Marie Floch, approntando alcune critiche e difendendo invece un modello che – secondo la prospettiva qui esposta – contiene punti di attualità ineludibili rispetto a schematizzazioni che gli sono successive e in qualche modo debitrici. Segue una sezione (§ 3.) specificatamente dedicata allo svolgimento e dis-implicazione del sincretismo audiovisivo e quindi – specularmente alla precedente, dedicata alle forme e sostanze del contenuto – si concentra sulle dinamiche espressive. Lo spot viene quindi analizzato in quanto “forma testuale” dotata di alcune specificità, tra cui in primis la brevità. Inoltre vengono approfondite le problematiche legate all’apporto di ciascuna specifica sostanza: il rapporto tra visivo e sonoro, lo schermo e la sua multiprospetticità sempre più evidente, il “lavoro” di punteggiatura della musica, ecc. E su tutto il concetto dominante di montaggio, intrinsecamente unito a quello di ritmo. Il quarto capitolo ritorna in modo approfondito sul rapporto tra semiotica e ricerca di mercato, analizzando sia i rapporti di reciproca conoscenza (o non conoscenza), sia i nuovi spazi di intervento dell’analisi semiotica. Dopo aver argomentato contro un certo scetticismo circa l’utilità pragmatica dell’analisi semiotica, lo studio prende in esame i tradizionali modelli di valutazione e misurazione dell’efficacia pubblicitaria (pre- e post- test) cercando di semiotizzarne il portato. Ne consegue la proposta di disegni di ricerca semiotici modulari: integrabili tra loro e configurabili all’interno di progetti semio-quali-quantitativi. Dopo aver ridefinito le possibilità di un’indagine semiotica sui parametri di efficacia discorsiva, si procede con l’analisi di un caso concreto (§ 5.): dato uno spot che si è dimostrato efficace agli occhi dell’azienda committente, quali possono essere i modi per replicarne i fattori di successo? E come spiegare invece quelli di insuccesso delle campagne successive che – almeno teoricamente – erano pensate per capitalizzare l’efficacia della prima? Non si tratta quindi di una semiotica ingenuamente chiamata a “misurare” l’efficacia pubblicitaria, che evidentemente la marketing research analizza con strumenti quantitativi assodati e fondati su paradigmi di registrazione di determinati parametri sul consumatore (ricordo spontaneo e sollecitato, immagine di marca risultante nella mente di user e prospect consumer, intenzione d’acquisto stimolata). Piuttosto l’intervento qui esposto si preoccupa più funzionalmente a spiegare quali elementi espressivi, discorsivi, narrativi, siano stati responsabili (e quindi prospetticamente potranno condizionare in positivo o in negativo in futuro) la ricezione dello spot. L’analisi evidenzia come elementi apparentemente minimali, ancorati a differenti livelli di pertinenza siano in grado di determinare una notevole diversità negli effetti di senso. Si tratta quindi di un problema di mancata coerenza tra intenzioni comunicative e testo pubblicitario effettivamente realizzato. La risoluzione di tali questioni pragmatiche conduce ad approfondimenti teoricometodologici su alcuni versanti particolarmente interessanti. In primo luogo, ci si interroga sull’apporto della dimensione passionale nella costruzione dell’efficacia e nel coinvolgimento dello spettatore/consumatore. Inoltre – e qui risiede uno dei punti di maggior sintesi del lavoro di tesi – si intraprende una proficua discussione dei modelli di tipizzazione dei generi pubblicitari, intesi come forme discorsive. Si fanno quindi dialogare modelli diversi ma in qualche misura coestensivi e sovrapponibili come quelli di Jean Marie Floch, Guido Ferraro, Cosetta Saba e Chiara Giaccardi. Si perviene così alla costruzione di un nuovo modello sintetico, idealmente onnipervasivo e trasversale alle prospettive analizzate.
Resumo:
Le tecniche dell'informazione e i metodi della comunicazione hanno modificato il modo di redigere documenti destinati a trasmettere la conoscenza, in un processo che è a tutt'oggi in corso di evoluzione. Anche l'attività progettuale in ingegneria ed architettura, pure in un settore caratterizzato da una notevole inerzia metodologica e restio all'innovazione quale è quello dell'industria edilizia, ha conosciuto profonde trasformazioni in ragione delle nuove espressioni tecnologiche. Da tempo l'informazione necessaria per realizzare un edificio, dai disegni che lo rappresentano sino ai documenti che ne indicano le modalità costruttive, può essere gestita in maniera centralizzata mediante un unico archivio di progetto denominato IPDB (Integrated Project DataBase) pur essendone stata recentemente introdotta sul mercato una variante più operativa chiamata BIM (Building Information Modelling). Tuttavia l'industrializzazione del progetto che questi strumenti esplicano non rende conto appieno di tutti gli aspetti che vedono la realizzazione dell'opera architettonica come collettore di conoscenze proprie di una cultura progettuale che, particolarmente in Italia, è radicata nel tempo. La semantica della rappresentazione digitale è volta alla perequazione degli elementi costitutivi del progetto con l'obiettivo di catalogarne le sole caratteristiche fabbricative. L'analisi della letteratura scientifica pertinente alla materia mostra come non sia possibile attribuire ai metodi ed ai software presenti sul mercato la valenza di raccoglitori omnicomprensivi di informazione: questo approccio olistico costituisce invece il fondamento della modellazione integrata intesa come originale processo di rappresentazione della conoscenza, ordinata secondo il paradigma delle "scatole cinesi", modello evolvente che unifica linguaggi appartenenti ai differenti attori compartecipanti nei settori impiantistici, strutturali e della visualizzazione avanzata. Evidenziando criticamente i pregi e i limiti operativi derivanti dalla modellazione integrata, la componente sperimentale della ricerca è stata articolata con l'approfondimento di esperienze condotte in contesti accademici e professionali. Il risultato conseguito ha coniugato le tecniche di rilevamento alle potenzialità di "modelli tridimensionali intelligenti", dotati cioè di criteri discriminanti per la valutazione del relazionamento topologico dei componenti con l'insieme globale.
Resumo:
Il tema generale di ricerca oggetto della presente trattazione è rappresentato dal diritto di difesa nel procedimento de libertate. Esso costituisce un tema da sempre controverso, materia di vivaci e mai sopiti dibattiti sia in dottrina che in giurisprudenza, poiché si colloca in un punto nevralgico non solo del procedimento penale, ma, addirittura, dell’intero ordinamento giuridico di uno stato, poiché in esso si incontrano, e sovente si scontrano, le istanze di garanzia del cittadino contro indebite limitazioni ante iudicium della libertà personale, da un lato, e le esigenze di tutela della collettività e del processo dai pericula libertatis (inquinamento delle prove, rischio di fuga, pericolo di reiterazione dei reati), dall’altro. Detto in altri termini, il procedimento de libertate è esattamente il luogo in cui un ordinamento che voglia definirsi liberale, nella sua naturale e incessante evoluzione, tenta faticosamente di trovare un equilibrio tra autorità e libertà. Trattandosi, per ovvie ragioni, di un argomento vastissimo, che spazia dall’esercizio del diritto di difesa nella fase applicativa delle misure cautelari personali, alle impugnazioni delle misure medesime, dalla revoca o sostituzione delle stesse al giudicato cautelare sulle decisioni de libertate, etc., il campo della ricerca è stato circoscritto a due temi specifici che interessano direttamente il diritto di difesa, limitatamente alla fase dell’applicazione delle misure cautelari personali, e che presentano profili di originalità, per alcune importanti modifiche intervenute a livello sia di legislazione ordinaria che di legislazione costituzionale: 1) l’accertamento dei gravi indizi di colpevolezza; 2) il principio del contraddittorio nel procedimento cautelare, alla luce dell’art. 111 Cost. Siffatti temi, apparentemente disomogenei, sono, in realtà, profondamente correlati tra loro, rappresentando, per usare una locuzione spicciola, l’uno la “sostanza” e l’altro “la forma” del procedimento de libertate, ed insieme concorrono ad individuare un modello di giusto processo cautelare.
Resumo:
I viaggi e gli studi compiuti in Croazia, Montenegro e Bosnia Erzegovina in occasione della Tesi di Laurea hanno costituito l’occasione per comprendere quanto sia consistente il retaggio di Roma antica sulla sponda orientale dell’Adriatico. Nello stesso tempo si è potuto constatare che, per diversi motivi, dal punto di vista prettamente scientifico, la ricchezza di questo patrimonio archeologico aveva sino allora trovato soltanto poche occasioni di studio. Da qui la necessità di provvedere a un quadro completo e generale relativo alla presenza romana in un territorio come quello della provincia romana di Dalmatia che, pur considerando la sua molteplicità geografica, etnica, economica, culturale, sociale e politica, ha trovato, grazie all’intervento di Roma, una sua dimensione unitaria, un comune denominatore, tanto da farne una provincia che ebbe un ruolo fondamentale nella storia dell’Impero. Il lavoro prende le mosse da una considerazione preliminare e generale, che ne costituisce quasi lo spunto metodologico più determinante: la trasmissione della cultura e dei modelli di vita da parte di Roma alle altre popolazioni ha creato un modello in virtù del quale l’imperialismo romano si è in certo modo adattato alle diverse culture incontrate ed assimilate, dando vita ad una rete di culture unite da elementi comuni, ma anche profondamente diversificate per sintesi originali. Quella che pare essere la chiave di lettura impiegata è la struttura di un impero a forma di “rete” con forti elementi di coesione, ma allo stesso tempo dotato di ampi margini di autonomia. E questo a cominciare dall’analisi dei fattori che aprirono il cammino dell’afflusso romano in Dalmatia e nello stesso tempo permisero i contatti con il territorio italico. La ricerca ne analizza quindi i fattori:il diretto controllo militare, la costruzione di una rete viaria, l’estensione della cittadinanza romana, lo sviluppo della vita locale attraverso la formazione di una rete di municipi, i contatti economici e l’immigrazione di genti romanizzate. L’analisi ha posto in evidenza una provincia caratterizzata da notevoli contraddizioni, che ne condizionarono – presso entrambi i versanti del Velebit e delle Alpi Dinariche – lo sviluppo economico, sociale, culturale e urbanistico. Le profonde differenze strutturali tra questi due territori rimasero sempre presenti: la zona costiera divenne, sotto tutti i punti di vista, una sorta di continuazione dell’Italia, mntre quella continentale non progredì di pari passo. Eppure l’influenza romana si diffuse anche in questa, così che essa si pote conformare, in una certa misura, alla zona litoranea. Come si può dedurre dal fatto che il severo controllo militare divenne superfluo e che anche questa regione fu dotata progressivamente di centri amministrati da un gruppo dirigente compiutamente integrato nella cultura romana. Oltre all’analisi di tutto ciò che rientra nel processo di acculturazione dei nuovi territori, l’obiettivo principale del lavoro è l’analisi di uno degli elementi più importanti che la dominazione romana apportò nei territori conquistati, ovvero la creazione di città. In questo ambito relativamente periferico dell’Impero, qual è il territorio della provincia romana della Dalmatia, è stato dunque possibile analizzare le modalità di creazione di nuovi centri e di adattamento, da parte di Roma, ai caratteri locali dell’insediamento, nonché ai condizionamenti ambientali, evidenziando analogie e differenze tra le città fondate. Prima dell’avvento di Roma, nessuna delle regioni entrate a far parte dei territori della Dalmatia romana, con la sola eccezione della Liburnia, diede origine a centri di vero e proprio potere politico-economico, come ad esempio le città greche del Mediterraneo orientale, tali da continuare un loro sviluppo all’interno della provincia romana. In altri termini: non si hanno testimonianze di insediamenti autoctoni importanti che si siano trasformati in città sul modello dei centri provinciali romani, senza aver subito cambiamenti radicali quali una nuova pianificazione urbana o una riorganizzazione del modello di vita locale. Questo non significa che la struttura politico-sociale delle diverse tribù sia stata cambiata in modo drastico: almeno nelle modeste “città” autoctone, nelle quali le famiglie appaiono con la cittadinanza romana, assieme agli ordinamenti del diritto municipale, esse semplicemente continuarono ad avere il ruolo che i loro antenati mantennero per generazioni all’interno della propria comunità, prima della conquista romana. Il lavoro mette compiutamente in luce come lo sviluppo delle città nella provincia abbia risentito fortemente dello scarso progresso politico, sociale ed economico che conobbero le tribù e le popolazioni durante la fase pre-romana. La colonizzazione greca, troppo modesta, non riuscì a far compiere quel salto qualitativo ai centri autoctoni, che rimasero sostanzialmente privi di concetti basilari di urbanistica, anche se è possibile notare, almeno nei centri costieri, l’adozione di tecniche evolute, ad esempio nella costruzione delle mura. In conclusione questo lavoro chiarisce analiticamente, con la raccolta di un’infinità di dati (archeologici e topografici, materiali ed epigrafici, e desunti dalle fonti storiche), come la formazione della città e l’urbanizzazione della sponda orientale dell’adriatico sia un fenomeno prettamente romano, pur differenziato, nelle sue dinamiche storiche, quasi caso per caso. I dati offerti dalla topografia delle città della Dalmatia, malgrado la scarsità di esempi ben documentati, sembrano confermare il principio della regolarità degli impianti urbani. Una griglia ortogonale severamente applicata la si individua innanzi tutto nelle città pianificate di Iader, Aequum e, probabilmente, anche a Salona. In primis nelle colonie, quindi, ma non esclusivamente. Anche numerosi municipi sviluppatisi da insediamenti di origine autoctona hanno espresso molto presto la tendenza allo sviluppo di un sistema ortogonale regolare, se non in tutta l’area urbana, almeno nei settori di più possibile applicazione. Ne sono un esempio Aenona, Arba, Argiruntum, Doclea, Narona ed altri. La mancanza di un’organizzazione spaziale regolare non ha tuttavia compromesso l’omogeneità di un’attrezzatura urbana tesa alla normalizzazione, in cui i componenti più importanti, forum e suoi annessi, complessi termali, templi dinastici e capitolia, si avviano a diventare canonici. Le differenze più sensibili, che pure non mancano, sembrano dipendere dalle abitudini delle diverse etnie, dai condizionamenti topografici e dalla disponibilità finanziaria dei notabili. Una città romana non può prendere corpo in tutta la sua pienezza solo per la volontà del potere centrale. Un progetto urbanistico resta un fatto teorico finché non si realizzano le condizioni per cui si fondano due fenomeni importantissimi: uno socio-culturale, che consiste nell’emergenza di una classe di notabili “fortunati” desiderosi di dare a Roma dimostrazioni di lealtà, pronti a rispondere a qualsiasi sollecitazione da parte del potere centrale e addirittura ad anticiparlo; l’altro politico-amministrativo, che riguarda il sistema instaurato da Roma, grazie al quale i suddetti notabili possono godere di un certo potere e muoversi in vista della promozione personale nell’ambito della propria città. Aiuti provenienti dagli imperatori o da governatori provinciali, per quanto consistenti, rimangono un fatto non sistematico se non imprevedibile, e rappresentano comunque un episodio circoscritto. Anche se qualche città risulta in grado di costruire pecunia publica alcuni importanti edifici del quadro monumentale, il ruolo del finanziamento pubblico resta relativamente modesto. Quando la documentazione epigrafica esiste, si rivela che sono i notabili locali i maggiori responsabili della costruzione delle opere pubbliche. Sebbene le testimonianze epigrafiche siano scarse e, per la Dalmatia non sia possibile formulare un quadro completo delle committenze che favorirono materialmente lo sviluppo architettonico ed artistico di molti complessi monumentali, tuttavia è possibile osservare e riconoscere alcuni aspetti significativi e peculiari della provincia.
Resumo:
La ricerca si propone come studio teorico e analitico basato sulla traduzione letteraria e audiovisiva del genere diasporico, esemplificato nel romanzo The Namesake – L’omonimo di J. Lahiri e nel film The Namesake – Il destino nel nome di M. Nair. Si sviluppa, quindi, un doppio percorso di analisi, concentrandosi sulla traduzione interlinguistica di due modalità testuali differenti, quella letteraria (il testo narrativo) e quella audiovisiva (in particolare, il doppiaggio). L’approccio teorico è di stampo interdisciplinare, come risulta sempre più imprescindibile nel campo dei Translation Studies: infatti, si cerca di coniugare prospettive di natura più linguistica, quali i Descriptive Translation Studies (in particolare, Toury 1995) e lo sviluppo degli studi sui cosiddetti ‘universali traduttivi’, con approcci di stampo più culturalista, in particolare gli studi sulla traduzione post-coloniali, con le loro riflessioni sui concetti di ‘alterità’ e ‘ibridismo’. Completa il quadro teorico di riferimento una necessaria definizione e descrizione del genere diasporico relativo alla cultura indiana, in rapporto sia al contesto di partenza (statunitense) sia al contesto di arrivo (italiano) per entrambi i testi presi in considerazione. La metodologia scelta per l’indagine è principalmente di natura linguistica, con l’adozione del modello elaborato dallo studioso J. Malone (1988). L’analisi empirica, accompagnata da una serie di riflessioni teoriche e linguistiche specifiche, si concentra su tre aspetti cruciali per entrambe le tipologie testuali, quali: la resa della naturalezza dei dialoghi nel discorso letterario e in quello filmico, la rappresentazione del multiculturalismo e delle varietà linguistiche caratterizzanti i due testi di partenza e i numerosi riferimenti culturo-specifici delle due opere e la loro traduzione in italiano. Si propongono, infine, alcune considerazioni in ottica intersemiotica in relazione alle tre aree individuate, a integrazione dell’indagine in chiave interlinguistica.
Resumo:
Il rapido progresso della tecnologia, lo sviluppo di prodotti altamente sofisticati, la forte competizione globale e l’aumento delle aspettative dei clienti hanno messo nuove pressioni sui produttori per garantire la commercializzazione di beni caratterizzati da una qualità sempre crescente. Sono gli stessi clienti che da anni si aspettano di trovare sul mercato prodotti contraddistinti da un livello estremo di affidabilità e sicurezza. Tutti siamo consapevoli della necessità per un prodotto di essere quanto più sicuro ed affidabile possibile; ma, nonostante siano passati oramai 30 anni di studi e ricerche, quando cerchiamo di quantificare ingegneristicamente queste caratteristiche riconducibili genericamente al termine qualità, oppure quando vogliamo provare a calcolare i benefici concreti che l’attenzione a questi fattori quali affidabilità e sicurezza producono su un business, allora le discordanze restano forti. E le discordanze restano evidenti anche quando si tratta di definire quali siano gli “strumenti più idonei” da utilizzare per migliorare l’affidabilità e la sicurezza di un prodotto o processo. Sebbene lo stato dell’arte internazionale proponga un numero significativo di metodologie per il miglioramento della qualità, tutte in continuo perfezionamento, tuttavia molti di questi strumenti della “Total Quality” non sono concretamente applicabili nella maggior parte delle realtà industriale da noi incontrate. La non applicabilità di queste tecniche non riguarda solo la dimensione più limitata delle aziende italiane rispetto a quelle americane e giapponesi dove sono nati e stati sviluppati questi strumenti, oppure alla poca possibilità di effettuare investimenti massicci in R&D, ma è collegata anche alla difficoltà che una azienda italiana avrebbe di sfruttare opportunamente i risultati sui propri territori e propri mercati. Questo lavoro si propone di sviluppare una metodologia semplice e organica per stimare i livelli di affidabilità e di sicurezza raggiunti dai sistemi produttivi e dai prodotti industriali. Si pone inoltre di andare al di là del semplice sviluppo di una metodologia teorica, per quanto rigorosa e completa, ma di applicare in forma integrata alcuni dei suoi strumenti a casi concreti di elevata valenza industriale. Questa metodologia come anche, più in generale, tutti gli strumenti di miglioramento di affidabilità qui presentati, interessano potenzialmente una vasta gamma di campi produttivi, ma si prestano con particolare efficacia in quei settori dove coesistono elevate produzioni e fortissime esigenze qualitative dei prodotti. Di conseguenza, per la validazione ed applicazione ci si è rivolti al settore dell’automotive, che da sempre risulta particolarmente sensibile ai problemi di miglioramento di affidabilità e sicurezza. Questa scelta ha portato a conclusioni la cui validità va al di là di valori puramente tecnici, per toccare aspetti non secondari di “spendibilità” sul mercato dei risultati ed ha investito aziende di primissimo piano sul panorama industriale italiano.
Resumo:
La specificità dell'acquisizione di contenuti attraverso le interfacce digitali condanna l'agente epistemico a un'interazione frammentata, insufficiente da un punto di vista computazionale, mnemonico e temporale, rispetto alla mole informazionale oggi accessibile attraverso una qualunque implementazione della relazione uomo-computer, e invalida l'applicabilità del modello standard di conoscenza, come credenza vera e giustificata, sconfessando il concetto di credenza razionalmente fondata, per formare la quale, sarebbe invece richiesto all'agente di poter disporre appunto di risorse concettuali, computazionali e temporali inaccessibili. La conseguenza è che l'agente, vincolato dalle limitazioni ontologiche tipiche dell'interazione con le interfacce culturali, si vede costretto a ripiegare su processi ambigui, arbitrari e spesso più casuali di quanto creda, di selezione e gestione delle informazioni che danno origine a veri e propri ibridi (alla Latour) epistemologici, fatti di sensazioni e output di programmi, credenze non fondate e bit di testimonianze indirette e di tutta una serie di relazioni umano-digitali che danno adito a rifuggire in una dimensione trascendente che trova nel sacro il suo più immediato ambito di attuazione. Tutto ciò premesso, il presente lavoro si occupa di costruire un nuovo paradigma epistemologico di conoscenza proposizionale ottenibile attraverso un'interfaccia digitale di acquisizione di contenuti, fondato sul nuovo concetto di Tracciatura Digitale, definito come un un processo di acquisizione digitale di un insieme di tracce, ossia meta-informazioni di natura testimoniale. Tale dispositivo, una volta riconosciuto come un processo di comunicazione di contenuti, si baserà sulla ricerca e selezione di meta-informazioni, cioè tracce, che consentiranno l'implementazione di approcci derivati dall'analisi decisionale in condizioni di razionalità limitata, approcci che, oltre ad essere quasi mai utilizzati in tale ambito, sono ontologicamente predisposti per una gestione dell'incertezza quale quella riscontrabile nell'istanziazione dell'ibrido informazionale e che, in determinate condizioni, potranno garantire l'agente sulla bontà epistemica del contenuto acquisito.
Resumo:
Sono stati studiati gli effetti tossici dell’esposizione cronica a cobalto e cromo. In passato, questa tossicità, che colpiva lavoratori esposti per ragioni occupazionali, è stata un problema molto sentito. Tuttavia, recenti pubblicazioni hanno descritto una specifica tossicità mediata da elevati livelli di cobalto e cromo, anche in pazienti portatori di protesi metalliche, quali gli impianti d’anca. Anche se sintomi clinici tra cui, cecità, sordità e neuropatia periferica, suggeriscono uno specifico neurotropismo, ancora poco è conosciuto delle basi neuropatologiche di questo processo ed oltretutto non ne è ancora stata apportata un’evidenza sperimentale. In questo progetto di ricerca, quindi, si è voluto approfondire il meccanismo patogenetico da cui scaturiscono tali sintomi neurologici, utilizzando come modello sperimentale il coniglio. Conigli New Zealand White sono stati trattati con dosi endovenose ripetute di cobalto e cromo, inoculati singolarmente od in associazione tra loro. Nessuna evidente alterazione clinica o patologica è stata associata alla somministrazione di solo cromo, nonostante gli elevati livelli in sangue e tessuti, mentre i trattati con cobalto-cromo o solo cobalto hanno mostrato segni clinici gravanti sul sistema vestibolo-cocleare; il cobalto, quindi, è stato identificato come il maggiore elemento scatenante neurotossicità. Inoltre all’esame istopatologico gli animali hanno mostrato severa deplezione delle cellule gangliari retiniche e cocleari, assieme a danno al nervo ottico e perdita di cellule sensitive capellute dell’orecchio. È risultato infine evidente che la gravità delle alterazioni è stata correlata al dosaggio ed al tempo di esposizione; dati questi che confermano, quindi, le precedenti osservazioni fatte su pazienti umani esposti a rilascio abnorme di cobalto e cromo da usura di protesi d’anca. È stato ipotizzato che il cobalto agisca sui mitocondri provocando l’incremento di produzione di specie reattive dell’ossigeno e il rilascio di fattori proapoptotici, causando sulle cellule neuronali un danno proporzionale al loro fabbisogno energetico e grado di mielinizzazione.
Resumo:
La ricerca in oggetto ha analizzato le relazioni tra migrazione e salute mentale nel Distretto di Pianura Est dell'AUSL di Bologna. Attraverso un dispositivo d’indagine multi-disciplinare basato sui quadri teorici dell'Antropologia Medica Critica, della Salute Pubblica e della Psichiatria, la ricerca si è inserita nell’ampio contesto di sperimentazione di un innovativo modello di assistenza per pazienti migranti, denominato Centro di Consultazione Socio- Culturale. L'architettura dello studio si rifà a un modello di Ricerca-Azione Partecipata e Multi-Situata fondato su un approccio analitico e auto-riflessivo, il quale ha consentito di problematizzare, oltre alle azioni e alle traiettorie dei vari soggetti che operano nel campo della ricerca, anche le categorie oggetto della ricerca stessa. L'analisi, profondamente radicata nel dato empirico, è stata condotta a partire dall'esperienza degli attori sociali coinvolti. Le esperienze, le informazioni e le rappresentazioni reciproche sono state co-costruite in forma partecipativa attraverso l'uso combinato di metodologie quali-quantitative proprie sia delle discipline sanitarie sia di quelle sociali. Come materiali della ricerca sono stati utilizzati: dati primari e secondari prodotti dalle istituzioni e dalle organizzazioni del territorio stesso; informazioni provenienti dall'osservazione partecipante; colloqui con informatori-chiave; interviste semi-strutturate con decisori politici, amministratori, organizzazioni del territorio, operatori dei servizi, cittadini e pazienti. La ricerca ha dimostrato la validità delle prospettive teoriche utilizzate e delle strategie di lavoro proposte. Il modello di lavoro multi-disciplinare e multi-metodologico si è rivelato produttivo nell'indagare congiuntamente le prospettive degli attori coinvolti insieme alle loro traiettorie, alle reciproche interconnessioni e alle relazioni tra processi locali e globali. L’analisi auto-riflessiva ha consentito di analizzare le attività del Centro di Consultazione evidenziandone vantaggi e limiti. Infine, la collaborazione tra Salute Pubblica e Antropologia Medica Critica ha dimostrato una grande potenzialità e produttività sia sul versante della ricerca scientifica sia su quello dell'assistenza sanitaria.
Resumo:
La ricerca proposta si pone l’obiettivo di definire e sperimentare un metodo per un’articolata e sistematica lettura del territorio rurale, che, oltre ad ampliare la conoscenza del territorio, sia di supporto ai processi di pianificazione paesaggistici ed urbanistici e all’attuazione delle politiche agricole e di sviluppo rurale. Un’approfondita disamina dello stato dell’arte riguardante l’evoluzione del processo di urbanizzazione e le conseguenze dello stesso in Italia e in Europa, oltre che del quadro delle politiche territoriali locali nell’ambito del tema specifico dello spazio rurale e periurbano, hanno reso possibile, insieme a una dettagliata analisi delle principali metodologie di analisi territoriale presenti in letteratura, la determinazione del concept alla base della ricerca condotta. E’ stata sviluppata e testata una metodologia multicriteriale e multilivello per la lettura del territorio rurale sviluppata in ambiente GIS, che si avvale di algoritmi di clustering (quale l’algoritmo IsoCluster) e classificazione a massima verosimiglianza, focalizzando l’attenzione sugli spazi agricoli periurbani. Tale metodo si incentra sulla descrizione del territorio attraverso la lettura di diverse componenti dello stesso, quali quelle agro-ambientali e socio-economiche, ed opera una sintesi avvalendosi di una chiave interpretativa messa a punto allo scopo, l’Impronta Agroambientale (Agro-environmental Footprint - AEF), che si propone di quantificare il potenziale impatto degli spazi rurali sul sistema urbano. In particolare obiettivo di tale strumento è l’identificazione nel territorio extra-urbano di ambiti omogenei per caratteristiche attraverso una lettura del territorio a differenti scale (da quella territoriale a quella aziendale) al fine di giungere ad una sua classificazione e quindi alla definizione delle aree classificabili come “agricole periurbane”. La tesi propone la presentazione dell’architettura complessiva della metodologia e la descrizione dei livelli di analisi che la compongono oltre che la successiva sperimentazione e validazione della stessa attraverso un caso studio rappresentativo posto nella Pianura Padana (Italia).
Resumo:
Gli endocannabinoidi (EC) sono una classe di composti che mimano gli effetti del Δ9-tetraidrocannabinolo. Essi comprendono l’anandamide (AEA) ed il 2-arachidonoilglicerolo (2-AG), molecole che interagiscono preferenzialmente con due specifici recettori, il CB1 ed il CB2. Più recente è la scoperta di due molecole EC simili, il palmitoiletanolamide (PEA) e l’oleiletanolamide (OEA), che tuttavia agiscono legando recettori diversi tra cui il PPARα ed il TRVP1. Studi sperimentali dimostrano che il sistema degli EC è attivato in corso di cirrosi epatica ed è coinvolto nel processo fibrogenico e nella patogenesi delle alterazioni emodinamiche tipiche della malattia. Esso partecipa alla patogenesi di alcune delle maggiori complicanze della cirrosi quali ascite, encefalopatia, cardiomiopatia ed infezioni batteriche. Scopo del presente studio è stato quello di studiare il ruolo degli EC nella patogenesi delle infezioni batteriche in corso di cirrosi. A tale scopo sono stati eseguiti un protocollo clinico ed uno sperimentale. Nel protocollo sperimentale la cirrosi è stata indotta mediante somministrazione di CCl4 per via inalatoria a ratti maschi Wistar. In tale protocollo i livelli circolanti di tutti gli EC sono risultati significativamente aumentati a seguito della somministrazione di LPS. La somministrazione dell’antagonista del recettore CB1, Rimonabant, inoltre, è stata efficace nel ridurre del 50% la mortalità a 24 ore dei ratti trattati col farmaco rispetto ai ratti trattati col solo LPS. Parallelamente il Rimonabant ha determinato una riduzione dell’espressione genica di molecole pro-infiammatorie e sostanze vasoattive. Lo studio clinico, condotto su 156 pazienti, ha confermato l’attivazione del sistema degli EC in corso di cirrosi epatica. Inoltre è stata identificata una forte correlazione tra il PEA e l’OEA e l’emodinamica sistemica ed una associazione con alcune delle maggiori complicanze. L’analisi statistica ha inoltre individuato l’OEA quale predittore indipendente di insufficenza renale e di sopravvivenza globale.
Resumo:
Il presente elaborato si prefigge di analizzare il processo di liberalizzazione, comunitario e nazionale, del mercato del trasporto ferroviario di merci e di passeggeri, unitamente all'approfondimento della normativa dettata ai fini della tutela della sicurezza in ambito ferroviario.
Resumo:
La regolazione dei sistemi di propulsione a razzo a propellente solido (Solid Rocket Motors) ha da sempre rappresentato una delle principali problematiche legate a questa tipologia di motori. L’assenza di un qualsiasi genere di controllo diretto del processo di combustione del grano solido, fa si che la previsione della balistica interna rappresenti da sempre il principale strumento utilizzato sia per definire in fase di progetto la configurazione ottimale del motore, sia per analizzare le eventuali anomalie riscontrate in ambito sperimentale. Variazioni locali nella struttura del propellente, difettosità interne o eterogeneità nelle condizioni di camera posso dare origine ad alterazioni del rateo locale di combustione del propellente e conseguentemente a profili di pressione e di spinta sperimentali differenti da quelli previsti per via teorica. Molti dei codici attualmente in uso offrono un approccio piuttosto semplificato al problema, facendo per lo più ricorso a fattori correttivi (fattori HUMP) semi-empirici, senza tuttavia andare a ricostruire in maniera più realistica le eterogeneità di prestazione del propellente. Questo lavoro di tesi vuole dunque proporre un nuovo approccio alla previsione numerica delle prestazioni dei sistemi a propellente solido, attraverso la realizzazione di un nuovo codice di simulazione, denominato ROBOOST (ROcket BOOst Simulation Tool). Richiamando concetti e techiche proprie della Computer Grafica, questo nuovo codice è in grado di ricostruire in processo di regressione superficiale del grano in maniera puntuale, attraverso l’utilizzo di una mesh triangolare mobile. Variazioni locali del rateo di combustione posso quindi essere facilmente riprodotte ed il calcolo della balistica interna avviene mediante l’accoppiamento di un modello 0D non-stazionario e di uno 1D quasi-stazionario. L’attività è stata svolta in collaborazione con l’azienda Avio Space Division e il nuovo codice è stato implementato con successo sul motore Zefiro 9.
Resumo:
La ricerca analizza la forma di Stato e di Governo e si focalizza nel ruolo importante del Capo dello Stato in funzione alla separazione dei poteri e consolidamento della democrazia in una Repubblica Parlamentare. Questa ricerca comparativa analizza l’evoluzione della forma di governo in Italia e Albania. La ricerca analizza nei dettagli l’evoluzione della forma di Governo, focalizzandosi all’istituzione del Capo dello Stato in Albania dall’indipendenza (1912), evidenziando il ruolo dell’Italia in quest’evoluzione. In maniera comparativa si analizza l’evoluzione dell’istituzione del Capo dello Stato in Italia fin dalla sua unita e gli altri sviluppi i quali servirono come modello per l’Albania, evidenziano l’influenza a livello internazionale che ebbe l’Italia per l’indipendenza dell’Albania, che portò al consolidamento dei loro rapporti. Questa ricerca analizza la collaborazione di questi due Stati la quale culmino con la loro Unione Personale identificandosi nello stesso Capo di Stato. La ricerca inoltre evidenzia che come questa fase sia stata superata dalla II Guerra Mondiale e la Guerra Fredda che vide questi Stati a sviluppare diverse forme di Governo. Per di più la ricerca evidenzia la trasformazione politico-istituzionale e il processo di cambiamento dell’Albania dopo la caduta del muro di Berlino che segno la fine del sistema comunista, che vide l’Albania ad adottare il modello Italiano per il Capo dello Stato.