876 resultados para INFLUENZA
Resumo:
In questa tesi ci focalizzeremo sul connubio TV ed internet che rivoluzionerà l’erogazione dei servizi verso i telespettatori e di conseguenza il marketing pubblicitario in questo contesto. Partiremo dalla storia della televisione in Italia e dei dispositivi TV per poi analizzare i primi fenomeni di utilizzo televisivo del canale web e la conseguente nascita dei primi social media e servizi di video on demand. La seconda parte di questa tesi farà una larga panoramica sul marketing televisivo ed il web marketing, fino ad arrivare al punto di massima prossimità tra i due canali, ovvero l’advertising correlato ai contenuti video presenti sul web. Nella terza ed ultima parte analizzeremo le prime piattaforme di WebTV e servizi di internet television, per poi focalizzarci sui probabili risvolti e prospettive future sia a livello di fruizione dei contenuti che pubblicitario. Questo fenomeno avrà una netta influenza nel Marketing considerando che dal 1984 la TV è il mezzo che raccoglie la maggior parte degli investimenti pubblicitari ed il web è il media in maggiore ascesa a livello di penetrazione e popolarità negli ultimi anni.
Resumo:
Si tratta di uno studio osservazionale analitico di coorte prospettico volto a rilevare disfunzioni neuropsicologiche nei pazienti affetti da epilessia frontale notturna, attraverso una batteria di test che esplora i seguenti domini cognitivi: intelligenza generale, memoria, linguaggio, funzioni esecutive, attenzione, vigilanza, tempi di reazione, percezione della qualità della vita ed eventuale presenza di sintomi psichiatrici. Lo studio ha un follow up medio di 20 anni e riporta, per la prima volta in letteratura, lâevoluzione clinica dei soggetti che hanno avuto un esordio dellâepilessia in età evolutiva. Fino ad ora, lâepilessia frontale notturna è stata associata a disfunzioni cognitive nei soli casi di famiglie affette e nelle quali è stato possibile rilevare il difetto genetico. Questo studio ha rilevato la prevalenza di disturbi cognitivi e psichici in un campione di 24 soggetti affetti, mediante la somministrazione di una batteria di test specifica. I risultati sono stati analizzati con il programma statistico SPSS. Tutti i soggetti presentano abilità cognitive inferiori alla media in uno o più test ma il quoziente intellettivo risulta normale nei tre quarti del campione. Il ritardo mentale è più frequente e più grave nei soggetti idiopatici rispetto a quelli con alterazioni morfologiche frontali rilevate alla risonanza magnetica. Sono risultati più frequenti i disturbi della memoria, soprattutto quella a lungo termine e del linguaggio rispetto a quelli di tipo disesecutivo. Tutti i soggetti, che non hanno ottenuto un controllo delle crisi, manifestano una percezione della qualità della vita inferiore alla media. Eâ stata valutata lâinfluenza delle variabili cliniche (età di esordio dellâepilessia, frequenza e semeiologia delle crisi, durata della malattia e terapia antiepilettica), le anomalie elettroencefalografiche e le anomalie rilevate alla risonanza magnetica. Le variabili che sono in rapporto con un maggiore numero di disfunzioni neuropsicologiche sono: lâelevata frequenza di crisi allâesordio, lâassociazione con crisi in veglia, la presenza di crisi parziali secondariamente generalizzate e lâassunzione di una politerapia. I disturbi psichici prevalgono nei soggetti con anomalie elettroencefalografiche frontali sinistre. I dati neuropsicologici suggeriscono una disfunzione cognitiva prevalentemente fronto-temporale e, assieme ai dati clinici ed elettroencefalografici, sembrano confermare lâorigine mesiale e orbitale frontale delle anomalie epilettiche nellâepilessia frontale notturna.
Resumo:
Questa dissertazione esamina le sfide e i limiti che gli algoritmi di analisi di grafi incontrano in architetture distribuite costituite da personal computer. In particolare, analizza il comportamento dell'algoritmo del PageRank così come implementato in una popolare libreria C++ di analisi di grafi distribuiti, la Parallel Boost Graph Library (Parallel BGL). I risultati qui presentati mostrano che il modello di programmazione parallela Bulk Synchronous Parallel è inadatto all'implementazione efficiente del PageRank su cluster costituiti da personal computer. L'implementazione analizzata ha infatti evidenziato una scalabilità negativa, il tempo di esecuzione dell'algoritmo aumenta linearmente in funzione del numero di processori. Questi risultati sono stati ottenuti lanciando l'algoritmo del PageRank della Parallel BGL su un cluster di 43 PC dual-core con 2GB di RAM l'uno, usando diversi grafi scelti in modo da facilitare l'identificazione delle variabili che influenzano la scalabilità. Grafi rappresentanti modelli diversi hanno dato risultati differenti, mostrando che c'è una relazione tra il coefficiente di clustering e l'inclinazione della retta che rappresenta il tempo in funzione del numero di processori. Ad esempio, i grafi Erdős–Rényi, aventi un basso coefficiente di clustering, hanno rappresentato il caso peggiore nei test del PageRank, mentre i grafi Small-World, aventi un alto coefficiente di clustering, hanno rappresentato il caso migliore. Anche le dimensioni del grafo hanno mostrato un'influenza sul tempo di esecuzione particolarmente interessante. Infatti, si è mostrato che la relazione tra il numero di nodi e il numero di archi determina il tempo totale.
Resumo:
Il presente lavoro si è occupato della modellazione del degrado ambientale su strutture in muratura. Si propone un modello focalizzando l’attenzione sulla cristallizzazione dei sali con lo scopo di individuare sotto quali condizioni il sale si deposita, determinando la quantità e la posizione dove cristallizza e di come questo fenomeno influenza lo stato tenso-deformativo della struttura stessa.
Resumo:
Il lavoro presentato si propone di fornire un contributo all'implementazione di indagini finalizzate a misurare l'evoluzione delle intenzioni d'acquisto del consumatore italiano nei confronti degli OGM, data anche l'impossibilità al momento di avere indicazioni e dati sul comportamento (vista la quasi totale assenza dei prodotti OGM nella distribuzione, se si eccettuano i prodotti d'allevamento di animali alimentati con OGM per cui non è previsto nessun obbligo di etichettatura). Le coltivazioni transgeniche (Organismi Geneticamente Modificati) si stanno diffondendo abbastanza rapidamente nel contesto mondiale, dal 1996, primo anno in cui sono uscite dalla fase sperimentale, ad oggi. Nel 2008 la superficie globale delle colture biotech è stata di 125 milioni di ettari, circa il 9% in più rispetto ai 114 milioni del 2007, mentre il numero dei Paesi che hanno adottato varietà GM è giunto a 25. Di questi sono soprattutto Usa, Canada, Argentina, Brasile, Cina e India a trainare la crescita; le colture più diffuse sono soia, mais, cotone e colza, prodotti destinati principalmente al segmento feed e al segmento no-food e solo in minima parte al segmento food (cioè all'alimentazione diretta umana). Molte più resistenze ha incontrato tale sviluppo nei Paesi dell'Unione europea. A tutt'oggi le coltivazioni GM hanno raggiunto estensioni significative solamente in Spagna, con alcune decine di migliaia di ettari di mais GM. Mais che peraltro è l'unica produzione per cui è stata autorizzata una varietà GM alla coltivazione. Si intuisce in sostanza come in Europa si sia assunto un atteggiamento molto più prudente verso l'utilizzo su larga scala di tale innovazione scientifica, rispetto a quanto accaduto nei grandi Paesi citati in precedenza. Una prudenza dettata dal serrato dibattito, tuttora in corso, tra possibilisti e contrari, con contrapposizioni anche radicali, al limite dell'ideologia. D'altro canto, le indagini di Eurobarometro hanno messo in luce un miglioramento negli ultimi anni nella percezione dei cittadini europei verso le biotecnologie: dopo aver raggiunto un livello minimo di fiducia nel 1999, si è manifestata una lenta risalita verso i livelli di inizio anni '90, con percentuali di "fiduciosi" intorno al 55-60% sul totale della popolazione. Tuttavia, sebbene sulle biotecnologie in genere (l'Eurobarometro individua quattro filoni: alimenti contenenti OGM, terapie geniche, nanotecnologie e farmaci contenenti OGM), il giudizio sia abbastanza positivo, sugli alimenti permane un certo scetticismo legato soprattutto a considerazioni di inutilità della tecnologia, di rischio percepito e di accettabilità morale: per citare il caso italiano, che, contrariamente a quello che si potrebbe pensare, è tra i più elevati nel contesto europeo, solamente un cittadino su tre valuta positivamente gli alimenti contenenti OGM. Se si analizza, inoltre, il sentiment del settore agricolo, nel quale il tema riveste anche un'importanza di natura economico-produttiva, in quanto incidente sui comportamenti e sulla strategie aziendali, sembra emergere un'apertura significativamente più elevata, se non una vera e propria frattura rispetto all'opinione pubblica. Infatti, circa due maiscoltori lombardi su tre (Demoskopea, 2008), cioè la tipologia di agricoltori che potrebbe beneficiare di tale innovazione, coltiverebbero mais GM se la normativa lo consentisse. Ebbene, in tale contesto diventa d'estremo interesse, sebbene di non facile praticabilità , lo studio e l'implementazione di modelli volti a monitorare le componenti che concorrono a formare l'intenzione e, in ultima analisi, il comportamento, dei consumatori verso gli OGM. Un esercizio da attuare per lo più tramite una serie di misurazioni indirette che devono fermarsi necessariamente all'intenzione nel caso italiano, mentre in altri Paesi che hanno avuto legislazioni più favorevoli all'introduzione degli OGM stessi nella produzione food può perseguire approcci d'analisi field, focalizzati non solo sull'intenzione, ma anche sul legame tra intenzione ed effettivo comportamento. Esiste una vasta letteratura che studia l'intenzione del consumatore verso l'acquisto di determinati beni. Uno degli approcci teorici che negli ultimi anni ha avuto più seguito è stato quello della Teoria del Comportamento Pianificato (Ajzen, 1991). Tale teoria prevede che l'atteggiamento (cioè l'insieme delle convinzioni, credenze, opinioni del soggetto), la norma soggettiva (cioè l'influenza dell'opinione delle persone importanti per l'individuo) e il controllo comportamentale percepito (ovvero la capacità , auto-percepita dal soggetto, di riuscire a compiere un determinato comportamento, in presenza di un'intenzione di ugual segno) siano variabili sufficienti a spiegare l'intenzione del consumatore. Tuttavia, vari ricercatori hanno e stanno cercando di verificare la correlazione di altre variabili: per esempio la norma morale, l'esperienza, l'attitudine al rischio, le caratteristiche socio-demografiche, la cosiddetta self-identity, la conoscenza razionale, la fiducia nelle fonti d'informazione e via discorrendo. In tale lavoro si è cercato, quindi, di esplorare, in un'indagine "pilota" quali-quantitativa su un campione ragionato e non probabilistico, l'influenza sull'intenzione d'acquisto di prodotti alimentari contenenti OGM delle variabili tipiche della Teoria del Comportamento Pianificato e di alcune altre variabili, che, nel caso degli OGM, appaiono particolarmente rilevanti, cioè conoscenza, fiducia nelle fonti d'informazione ed elementi socio-demografici. Tra i principali risultati da porre come indicazioni di lavoro per successive analisi su campioni rappresentativi sono emersi: - La conoscenza, soprattutto se tecnica, sembra un fattore, relativamente al campione ragionato analizzato, che conduce ad una maggiore accettazione degli OGM; le stesse statistiche descrittive mettono in luce una netta differenza in termini di intenzione d'acquisto dei prodotti contenenti OGM da parte del sub-campione più preparato sull'argomento; - L'esplorazione della fiducia nelle fonti d'informazione è sicuramente da approfondire ulteriormente. Dall'indagine effettuata risulta come l'unica fonte che influenza con le sue informazioni la decisione d'acquisto sugli OGM è la filiera agroalimentare. Dato che tali attori si caratterizzano per lo più con indicazioni contrarie all'introduzione degli OGM nei loro processi produttivi, è chiaro che se il consumatore dichiara di avere fiducia in loro, sarà anche portato a non acquistare gli OGM; - Per quanto riguarda le variabili della Teoria del Comportamento Pianificato, l'atteggiamento mette in luce una netta preponderanza nella spiegazione dell'intenzione rispetto alla norma soggettiva e al controllo comportamentale percepito. Al contrario, queste ultime appaiono variabili deboli, forse perchè a tutt'oggi la possibilità concreta di acquistare OGM è praticamente ridotta a zero ; - Tra le variabili socio-demografiche, l'influenza positiva del titolo di studio sulla decisione d'acquisto sembra confermare almeno in parte quanto emerso rispetto alla variabile "conoscenza"; - Infine, il fatto che il livello di reddito non influisca sull'intenzione d'acquisto appare abbastanza scontato, se si pensa, ancora una volta, come a tutt'oggi gli OGM non siano presenti sugli scaffali. Il consumatore non ha al momento nessuna idea sul loro prezzo. Decisamente interessante sarà indagare l'incidenza di tale variabile quando il "fattore OGM" sarà prezzato, presumibilmente al ribasso rispetto ai prodotti non OGM.
Resumo:
La ricerca svolta ha individuato fra i suoi elementi promotori l’orientamento determinato da parte della comunità europea di dare vita e sostegno ad ambiti territoriali intermedi sub nazionali di tipo regionale all’interno dei quali i sistemi di città potessero raggiungere le massime prestazioni tecnologiche per cogliere gli effetti positivi delle innovazioni. L’orientamento europeo si è confrontato con una realtà storica e geografica molto variata in quanto accanto a stati membri, nei quali le gerarchie fra città sono storicamente radicate e funzionalmente differenziate secondo un ordine che vede la città capitale dominante su città subalterne nelle quali la cultura di dominio del territorio non è né continua né gerarchizzata sussistono invece territori nazionali compositi con una città capitale di riconosciuto potere ma con città di minor dimensione che da secoli esprimono una radicata incisività nella organizzazione del territorio di appartenenza. Alla prima tipologia di stati appartengono ad esempio i Paesi del Nord Europa e l’Inghilterra, esprimendo nella Francia una situazione emblematica, alla seconda tipologia appartengono invece i Paesi dell’aera mediterranea, Italia in primis, con la grande eccezione della Germania. Applicando gli intendimenti comunitari alla realtà locale nazionale, questa tesi ha avviato un approfondimento di tipo metodologico e procedurale sulla possibile organizzazione a sistema di una regione fortemente policentrica nel suo sviluppo e “artificiosamente” rinata ad unità, dopo le vicende del XIX secolo: l’Emilia-Romagna. Anche nelle regioni che si presentano come storicamente organizzate sulla pluralità di centri emergenti, il rapporto col territorio è mediato da centri urbani minori che governano il tessuto cellulare delle aggregazioni di servizi di chiara origine agraria. Questo stato di cose comporta a livello politico -istituzionale una dialettica vivace fra territori voluti dalle istituzioni e territori legittimati dal consolidamento delle tradizioni confermato dall’uso attuale. La crescente domanda di capacità di governo dello sviluppo formulata dagli operatori economici locali e sostenuta dalle istituzioni europee si confronta con la scarsa capacità degli enti territoriali attuali: Regioni, Comuni e Province di raggiungere un livello di efficienza sufficiente ad organizzare sistemi di servizi adeguati a sostegno della crescita economica. Nel primo capitolo, dopo un breve approfondimento sulle “figure retoriche comunitarie”, quali il policentrismo, la governance, la coesione territoriale, utilizzate per descrivere questi fenomeni in atto, si analizzano gli strumenti programmatici europei e lo S.S.S.E,. in primis, che recita “Per garantire uno sviluppo regionale equilibrato nella piena integrazione anche nell’economia mondiale, va perseguito un modello di sviluppo policentrico, al fine di impedire un’ulteriore eccessiva concentrazione della forza economica e della popolazione nei territori centrali dell’UE. Solo sviluppando ulteriormente la struttura, relativamente decentrata, degli insediamenti è possibile sfruttare il potenziale economico di tutte le regioni europee.” La tesi si inserisce nella fase storica in cui si tenta di definire quali siano i nuovi territori funzionali e su quali criteri si basa la loro riconoscibilità; nel tentativo di adeguare ad essi, riformandoli, i territori istituzionali. Ai territori funzionali occorre riportare la futura fiscalità, ed è la scala adeguata per l'impostazione della maggior parte delle politiche, tutti aspetti che richiederanno anche la necessità di avere una traduzione in termini di rappresentanza/sanzionabilità politica da parte dei cittadini. Il nuovo governo auspicato dalla Comunità Europea prevede una gestione attraverso Sistemi Locali Territoriali (S.Lo.t.) definiti dalla combinazione di milieu locale e reti di attori che si comportano come un attore collettivo. Infatti il secondo capitolo parte con l’indagare il concetto di “regione funzionale”, definito sulla base della presenza di un nucleo e di una corrispondente area di influenza; che interagisce con altre realtà territoriali in base a relazioni di tipo funzionale, per poi arrivare alla definizione di un Sistema Locale territoriale, modello evoluto di regione funzionale che può essere pensato come una rete locale di soggetti i quali, in funzione degli specifici rapporti che intrattengono fra loro e con le specificità territoriali del milieu locale in cui operano e agiscono, si comportano come un soggetto collettivo. Identificare un sistema territoriale, è una condizione necessaria, ma non sufficiente, per definire qualsiasi forma di pianificazione o governance territoriale, perchè si deve soprattutto tener conto dei processi di integrazione funzionale e di networking che si vengono a generare tra i diversi sistemi urbani e che sono specchio di come il territorio viene realmente fruito., perciò solo un approccio metodologico capace di sfumare e di sovrapporre le diverse perimetrazioni territoriali riesce a definire delle aree sulle quali definire un’azione di governo del territorio. Sin dall’inizio del 2000 il Servizio Sviluppo Territoriale dell’OCSE ha condotto un’indagine per capire come i diversi paesi identificavano empiricamente le regioni funzionali. La stragrande maggioranza dei paesi adotta una definizione di regione funzionale basata sul pendolarismo. I confini delle regioni funzionali sono stati definiti infatti sulla base di “contorni” determinati dai mercati locali del lavoro, a loro volta identificati sulla base di indicatori relativi alla mobilità del lavoro. In Italia, la definizione di area urbana funzionale viene a coincidere di fatto con quella di Sistema Locale del Lavoro (SLL). Il fatto di scegliere dati statistici legati a caratteristiche demografiche è un elemento fondamentale che determina l’ubicazione di alcuni servizi ed attrezzature e una mappa per gli investimenti nel settore sia pubblico che privato. Nell’ambito dei programmi europei aventi come obiettivo lo sviluppo sostenibile ed equilibrato del territorio fatto di aree funzionali in relazione fra loro, uno degli studi di maggior rilievo è stato condotto da ESPON (European Spatial Planning Observation Network) e riguarda l’adeguamento delle politiche alle caratteristiche dei territori d’Europa, creando un sistema permanente di monitoraggio del territorio europeo. Sulla base di tali indicatori vengono costruiti i ranking dei diversi FUA e quelli che presentano punteggi (medi) elevati vengono classificati come MEGA. In questo senso, i MEGA sono FUA/SLL particolarmente performanti. In Italia ve ne sono complessivamente sei, di cui uno nella regione Emilia-Romagna (Bologna). Le FUA sono spazialmente interconnesse ed è possibile sovrapporre le loro aree di influenza. Tuttavia, occorre considerare il fatto che la prossimità spaziale è solo uno degli aspetti di interazione tra le città, l’altro aspetto importante è quello delle reti. Per capire quanto siano policentrici o monocentrici i paesi europei, il Progetto Espon ha esaminato per ogni FUA tre differenti parametri: la grandezza, la posizione ed i collegamenti fra i centri. La fase di analisi della tesi ricostruisce l’evoluzione storica degli strumenti della pianificazione regionale analizzandone gli aspetti organizzativi del livello intermedio, evidenziando motivazioni e criteri adottati nella suddivisione del territorio emilianoromagnolo (i comprensori, i distretti industriali, i sistemi locali del lavoro…). La fase comprensoriale e quella dei distretti, anche se per certi versi effimere, hanno avuto comunque il merito di confermare l’esigenza di avere un forte organismo intermedio di programmazione e pianificazione. Nel 2007 la Regione Emilia Romagna, nell’interpretare le proprie articolazioni territoriali interne, ha adeguato le proprie tecniche analitiche interpretative alle direttive contenute nel Progetto E.S.P.O.N. del 2001, ciò ha permesso di individuare sei S.Lo.T ( Sistemi Territoriali ad alta polarizzazione urbana; Sistemi Urbani Metropolitani; Sistemi Città – Territorio; Sistemi a media polarizzazione urbana; Sistemi a bassa polarizzazione urbana; Reti di centri urbani di piccole dimensioni). Altra linea di lavoro della tesi di dottorato ha riguardato la controriprova empirica degli effettivi confini degli S.Lo.T del PTR 2007 . Dal punto di vista metodologico si è utilizzato lo strumento delle Cluster Analisys per impiegare il singolo comune come polo di partenza dei movimenti per la mia analisi, eliminare inevitabili approssimazioni introdotte dalle perimetrazioni legate agli SLL e soprattutto cogliere al meglio le sfumature dei confini amministrativi dei diversi comuni e province spesso sovrapposti fra loro. La novità è costituita dal fatto che fino al 2001 la regione aveva definito sullo stesso territorio una pluralità di ambiti intermedi non univocamente circoscritti per tutte le funzioni ma definiti secondo un criterio analitico matematico dipendente dall’attività settoriale dominante. In contemporanea col processo di rinnovamento della politica locale in atto nei principali Paesi dell’Europa Comunitaria si va delineando una significativa evoluzione per adeguare le istituzioni pubbliche che in Italia comporta l’attuazione del Titolo V della Costituzione. In tale titolo si disegna un nuovo assetto dei vari livelli Istituzionali, assumendo come criteri di riferimento la semplificazione dell’assetto amministrativo e la razionalizzazione della spesa pubblica complessiva. In questa prospettiva la dimensione provinciale parrebbe essere quella tecnicamente più idonea per il minimo livello di pianificazione territoriale decentrata ma nel contempo la provincia come ente amministrativo intermedio palesa forti carenze motivazionali in quanto l’ente storico di riferimento della pianificazione è il comune e l’ente di gestione delegato dallo stato è la regione: in generale troppo piccolo il comune per fare una programmazione di sviluppo, troppo grande la regione per cogliere gli impulsi alla crescita dei territori e delle realtà locali. Questa considerazione poi deve trovare elementi di compatibilità con la piccola dimensione territoriale delle regioni italiane se confrontate con le regioni europee ed i Laender tedeschi. L'individuazione di criteri oggettivi (funzionali e non formali) per l'individuazione/delimitazione di territori funzionali e lo scambio di prestazioni tra di essi sono la condizione necessaria per superare l'attuale natura opzionale dei processi di cooperazione interistituzionale (tra comuni, ad esempio appartenenti allo stesso territorio funzionale). A questo riguardo molto utile è l'esperienza delle associazioni, ma anche delle unioni di comuni. Le esigenze della pianificazione nel riordino delle istituzioni politico territoriali decentrate, costituiscono il punto finale della ricerca svolta, che vede confermato il livello intermedio come ottimale per la pianificazione. Tale livello è da intendere come dimensione geografica di riferimento e non come ambito di decisioni amministrative, di governance e potrebbe essere validamente gestito attraverso un’agenzia privato-pubblica dello sviluppo, alla quale affidare la formulazione del piano e la sua gestione. E perché ciò avvenga è necessario che il piano regionale formulato da organi politici autonomi, coordinati dall’attività dello stato abbia caratteri definiti e fattibilità economico concreta.
Resumo:
Il presente lavoro ha come obiettivo la definizione e la misura della complessità tecnologica, al fine di costruire strumenti a supporto di tutti gli operatori che si occupano dello sviluppo e della fabbricazione di un prodotto industriale, quali progettisti di prodotto e responsabili di produzione. La ricerca è stata sviluppata attraverso le fasi di seguito descritte. Analisi dello stato dell’arte su definizioni e misure della complessità in ambito industriale attraverso l’individuazione e studio di oltre un centinaio di pubblicazioni al riguardo. Classificazione dei metodi proposti in letteratura per la misura della complessità in cinque categorie e analisi critica dei punti di forza e di debolezza dei differenti metodi, ai fini di orientare la elaborazione di un nuovo metodo. Sono stati inoltre analizzati i principali metodi di Intelligenza Artificiali quali potenziali strumenti di calcolo della complessità. Indagine su tematiche correlate alla complessità quali indicatori, trasferimento tecnologico e innovazione. La complessità viene misurata in termini di un indice che appartiene alla categoria degli indicatori, utilizzati in molti ambiti industriali, in particolare quello della misura delle prestazioni di produzione. In particolare si è approfondito significato e utilizzo dell’OEE (Overall Equipment Effectiveness), particolarmente diffuso nelle piccole medie imprese emilianoromagnole e in generale dalle aziende che utilizzano un sistema produttivo di tipo job-shop. È stato implementato un efficace sistema di calcolo dell’OEE presso una azienda meccanica locale. L’indice di complessità trova una delle sue più interessanti applicazioni nelle operazioni di trasferimento tecnologico. Introdurre un’innovazione significa in genere aumentare la complessità del sistema, quindi i due concetti sono connessi. Sono stati esaminati diversi casi aziendali di trasferimento di tecnologia e di misura delle prestazioni produttive, evidenziando legami e influenza della complessità tecnologica sulle scelte delle imprese. Elaborazione di un nuovo metodo di calcolo di un indice di complessità tecnologica di prodotto, a partire dalla metodologia ibrida basata su modello entropico proposta dai Prof. ElMaraghy e Urbanic nel 2003. L’attenzione è stata focalizzata sulla sostituzione nella formula originale a valori determinati tramite interviste agli operatori e pertanto soggettivi, valori oggettivi. Verifica sperimentale della validità della nuova metodologia attraverso l’applicazione della formula ad alcuni componenti meccanici grazie alla collaborazione di un’azienda meccanica manifatturiera. Considerazioni e conclusioni sui risultati ottenuti, sulla metodologia proposta e sulle applicazioni del nuovo indice, delineando gli obiettivi del proseguo della ricerca. In tutto il lavoro si sono evidenziate connessioni e convergenze delle diverse fonti e individuati in diversi ambiti concetti e teorie che forniscono importanti spunti e considerazioni sul tema della complessità. Particolare attenzione è stata dedicata all’intera bibliografia dei Prof. ElMaraghy al momento riconosciuti a livello internazionale come i più autorevoli studiosi del tema della complessità in ambito industriale.
Resumo:
In questa tesi viene descritto lo studio delle fasi liquido-cristalline del 4-n-ottil-4-cianobifenile eseguito tramite simulazioni al calcolatore molecular dynamics, sia per campioni bulk che per film smectici sottili. Impiegando un campo di forze "molecular mechanics" precedentemente usato con successo per studiare sistemi composti da 250 molecole della serie degli n-cianobifenili (nCB, con n pari a 4-8 atomi di carbonio nella catena alifatica), si è simulato il comportamento di un sistema bulk di 750 molecole e di un film smectico di 1500 molecole. Nel primo caso, sottoponendo il campione a un graduale raffreddamento, si è osservata la formazione spontanea di fasi ordinate quali quella nematica e quella smectica. Nel secondo caso, invece, si è studiata l'influenza dell'interfaccia con il vuoto sull'ordine posizionale e orientazionale di film sottili di diverso spessore e temperatura. Si sono confrontate le proprietà di entrambi i sistemi simulati con i dati sperimentali disponibili in letteratura, confermando la bontà del modello nel riprodurre fedelmente le caratteristiche dei campioni reali.
Resumo:
Lo scopo di questa dissertazione è quello di costruire un modello di promozione della salute nel contesto di lavoro in relazione al consumo di sostanze psicoattive fra lavoratori, attraverso il confronto tra la situazione italiana e inglese. L’ipotesi di fondo rimanda all’idea che i luoghi di lavoro possano rappresentare setting d’elezione per i progetti di prevenzione non solo perché alcuni studi dimostrano l’esistenza di fattori di rischio connessi alla mansione rispetto alle condotte relative allo stile di vita, ma anche perché il consumo di alcol e droghe è altamente diffuso tra i lavoratori e questo comporta rischi per la sicurezza e la salute personale nonché quella dei colleghi di lavoro. Si tratta quindi di indagare il rapporto tra contesto lavorativo e utilizzo di sostanze al fine di suggerire alla luce degli studi internazionali in materia e delle riflessioni condotte dai soggetti coinvolti nella ricerca che si andrà a presentare linee guida e indicazioni operative per la realizzazione di interventi di promozione alla salute nei contesti professionali. A tal fine, saranno analizzati gli esiti di 13 focus group che hanno coinvolto esperti italiani e 6 interviste somministrate a esperti inglesi volti a definire la situazione attuale in Italia e Gran Bretagna in materia di prevenzione del consumo di alcol e droghe nei luoghi di lavoro. In particolare, l’analisi verterà sulle seguenti aree: - Percezione circa la diffusione dei consumi nei luoghi di lavoro - Presentazione delle politiche adottate, in logica comparativa, tra i due paesi. - Analisi critica degli interventi e problematiche aperte. L’analisi del materiale empirico permette di delineare due modelli costruiti sulla base dei focus group e delle interviste: - in Italia si può affermare che prevalga il cd. modello della sicurezza: di recente trasformazione, questo sistema enfatizza la dimensione del controllo, tanto che si parla di sorveglianza sanitaria. É orientato alla sicurezza concepita quale rimozione dei fattori di rischio. Il consumo di sostanze (anche sporadico) è inteso quale espressione di una patologia che richiede l’intervento sanitario secondo modalità previste dal quadro normativo: una procedura che annulla la discrezionalità sia del datore di lavoro sia del medico competente. Si connota inoltre per contraddizioni interne e trasversali rispetto alle categorie lavorative (i controlli non si applicano alle professioni associate a maggiore prestigio sociale sebbene palesemente associate a rischio, come per esempio i medici) e alle sostanze (atteggiamento repressivo soprattutto verso le droghe illegali); - in Gran Bretagna, invece, il modello si configura come responsabilità bilaterale: secondo questo modello, se è vero che il datore di lavoro può decidere in merito all’attuazione di misure preventive in materia di alcol e droghe nei luoghi di lavoro, egli è ritenuto responsabile della mancata vigilanza. D’altro canto, il lavoratore che non rispetta quanto previsto nella politica scritta può essere soggetto a licenziamento per motivi disciplinari. Questo modello, particolarmente attento al consumo di tutte le sostanze psicoattive (legali e illegali), considera il consumo quale esito di una libera scelta individuale attraverso la quale il lavoratore decide di consumare alcol e droghe così come decide di dedicarsi ad altre condotte a rischio. Si propone di ri-orientare le strategie analizzate nei due paesi europei presi in esame attraverso la realizzazione di un modello della promozione della salute fondato su alcuni punti chiave: – coinvolgimento di tutti i lavoratori (e non solo coloro che svolgono mansioni a rischio per la sicurezza) al fine di promuovere benessere secondo un approccio olistico di salute, orientato ad intervenire non soltanto in materia di consumo di sostanze psicoattive (legali e illegali), ma più in generale sulle condotte a rischio; – compartecipazione nelle diverse fasi (programmazione, realizzazione e valutazione del progetto) del lavoratore, datore di lavoro e medico competente secondo una logica di flessibilità, responsabilizzazione condivisa fra i diversi attori, personalizzazione e co-gestione dell’intervento; – azione volta a promuovere i fattori di protezione agendo simultaneamente sul contrasto dei fattori di rischio (stress, alienazione, scarso riconoscimento del ruolo svolto), attraverso interventi che integrano diverse strategie operative alla luce delle evidenze scientifiche (Evidence-Based Prevention); – ricorso a strumenti di controllo (drug testing) subordinato all’esigenza di tutelare l’incolumità fisica del lavoratore e dei colleghi, da attuarsi sempre e comunque attraverso prassi che non violino la privacy e attraverso strumenti in grado di verificare l’effettivo stato di alterazione psico-fisica sul luogo di lavoro; – demedicalizzazione delle situazioni di consumo che non richiedono un intervento prettamente sanitario, ma che al contrario potrebbero essere affrontate attraverso azioni incentrate sul care anziché la cure; – messa a disposizione di servizi ad hoc con funzione di supporto, counselling, orientamento per i lavoratori, non stigmatizzanti e con operatori di formazione non solamente sanitaria, sull’esempio degli EAPs (Employee Assistence Programs) statunitensi. Si ritiene che questo modello possa trasformare i contesti di lavoro da agenzie di controllo orientate alla sicurezza a luoghi di intervento orientati al benessere attraverso un’azione sinergica e congiunta volta a promuovere i fattori di protezione a discapito di quelli di rischio in modo tale da intervenire non soltanto sul consumo di sostanze psicotrope, ma più in generale sullo stile di vita che influenza la salute complessiva.
Resumo:
Il panorama delle aziende italiane è costellato da una moltitudine di piccoli attori largamente specializzati in mansioni definite. Sono le piccole e le medie imprese (PMI), aziende per lo più familiari e con meno di qualche decina di dipendenti, talvolta con un'importante storia alle loro spalle che, nonostante la crisi e l'avvento di Internet, sono riuscite a rimanere leader incontrastati nel loro settore. È proprio Internet infatti uno dei pericoli più grandi per esse. Settori che in passato erano presenti offline, negli uffici dove ci si rivolgeva per l'erogazione del servizio richiesto, oggi godono di una fortissima se non predominante attività online, come il settore della ricerca e della selezione del personale. Questo settore, in particolare, ha subito tutta l'influenza di Internet. Annunci, ricerche di lavoro, consulenze, sono quasi totalmente presenti attraverso il canale online. Tale cambiamento ha portato ad una scossa nel mercato, cambiando le modalità di offerta e di domanda dei servizi, determinando chi dovesse sopravvivere e chi no. È Internet stessa ad offrire uno strumento fondamentale per la rivalutazione delle proprie attività e il ritorno di piccole imprese a guidare il mercato, soprattutto nelle realtà locali. Riuscire ad avere il coraggio di affrontare il cambiamento che Internet impone, riorganizzando il proprio lavoro e la propria struttura, è oggi un trampolino di lancio per competere con i grandi head hunter del settore, con aziende del calibro di Monster che sembrano ormai irrangiungibili. Li pensiamo irrangiungibili perché dominanti nei motori di ricerca: sistemi che veicolano attraverso di essi l'informazione e che oggi sono lo strumento che tutti noi quotidianamente utilizziamo per raggiungere le aziende e i loro servizi. I motori di ricerca sono però anche il luogo più democratico della rete. Non sono i soldi o la forza numerica data dell'essere una grande azienda a determinare il posizionamento in essi. È invece la capacità di inviduare e focalizzare il proprio core business che offre la possibilità di primeggiare tra le realtà locali, siano esse a livello provinciale o regionale ad esempio. In queste realtà, in questi settori, non sono i grandi attori internazionali ad avere più possibilità di successo ma sono le attività vicine al territorio ad esserne i leader. Capire questo e agire sulle leve che permettano alle PMI di dirigere il mercato è l'obiettivo di questa tesi. La tesi inizia con una analisi dei principali motori di ricerca italiani, di come sono strutturati e come essi riescono a valutare chi possa essere presente per una determinata keyword e chi non possa esserlo ma soprattutto la qualità attribuita e la posizione assunta. L'argomentazione viene sviluppata su due differenti percorsi: il primo analitico, dove vengono presentati i motori di ricerca, i loro algoritmi, la loro storia e la loro evoluzione futura, per capire come poter essere presenti oggi e come poter esserlo domani. La seconda parte è invece operativa, analizzando Teseo: un'agenzia di ricerca e selezione del personale operante a livello regionale nell'Emilia Romagna e fortemente specializzata in alcune attività molto specifiche. E' stato prodotto un prototipo di sito studiando i punti di forza e le debolezze di sistemi come WordPress e, infine, il lavoro punta alla sua messa online, al confronto tra i risultati raggiunti dal vecchio sito e quelli ottenuti con il nuovo, con una parte finale dedicata a delle attività collaterali e alla valutazione di strategie future sul lungo periodo. Nel settore della ricerca e della selezione del personale via Internet, come può una PMI sopravvivere contro i grandi head hunter?
Resumo:
La regolazione dell’espressione genica è un processo molto complesso e finemente controllato da fattori multipli, tra i quali quelli epigenetici hanno richiamato l’attenzione nell’ultima decade. I meccanismi di regolazione epigenetica comprendono la metilazione del DNA a livello delle isole CpG nella regione del promotore del gene e le modifiche istoniche post-traduzionali, quali acetilazioni e metilazioni. Questa serie di elementi di regolazione concorre a determinare uno stato di impacchettamento della cromatina più o meno rilassato, che influenzerà la trascrizione di geni critici, per esempio nello sviluppo o nelle neoplasie. Gli ambiti nei quali lo studio del profilo epigenetico ha assunto maggiore rilievo sono effettivamente quello oncologico e quello del differenziamento di cellule staminali, due contesti nei quali si è svolto il mio programma di Dottorato, nel quale ho seguito in parallelo più progetti presentati nella tesi in modo indipendente. La ricerca in campo tumorale è centrata sull’indagine di nuovi marcatori e sull’individuazione di profili epigenetici specifici per un determinato tumore che possano aiutare la diagnostica precoce, la classificazione e la sorveglianza dell’evoluzione clinica della neoplasia. In questo contesto si inserisce il progetto finalizzato alla costruzione di quadri associativi di metilazione in due tumori cerebrali, il glioblastoma (GBM) e l’oligodendroglioma (ODG). La casistica di GBM e di ODG in dotazione è stata valutata dal punto di vista della metilazione dei promotori di geni (MGMT, EMP3,..) con funzioni oncosoppressive e trovati ipermetilati anche in altri tumori o localizzati in regioni citologicamente instabili, per poter correlare questi dati con la risposta terapeutica nel caso del GBM o con i dati di perdita di eterozigosità (LOH) 1p19q nel caso dell’ODG. Parallelamente all’individuazione di marcatori epigenetici in ambito oncologico, la ricerca si sta muovendo anche nell’indagine di nuove potenziali terapie farmacologiche antitumorali su base epigenetica. In questo contesto, con lo scopo di approfondire le relazioni tra i meccanismi alla base della regolazione epigenetica, ci si è riproposti di valutare la correlazione tra il meccanismo di metilazione/demetilazione del DNA e quello di acetilazione/deacetilazione istonica e la loro vicendevole influenza nel determinare silenziamento genico piuttosto che riattivazione dell’espressione di geni ipermetilati. Sono stati usati farmaci epigenetici demetilanti, quali Azacitidina e Decitabina, inibitori della istone deacetilasi, quali la Tricostatina A, e inibitori della via di sintesi di molecole, le poliammine, coinvolte nella regolazione dell’espressione genica con modalità ancora da precisare in modo definitivo. Sebbene i meccanismi di regolazione epigenetica vengano studiati per lo più nel cancro, a causa delle gravi conseguenze che una loro disregolazione porta in termini di silenziamento di geni oncosoppressori, essi sono implicati fisiologicamente anche nel differenziamento di cellule staminali. Gli ultimi due progetti trattati nella tesi si contestualizzano in questo ambito. In particolare viene presentata la messa a punto di una metodologia di immunoprecipitazione sequenziale della cromatina finalizzata all’individuazione di due modificazioni istoniche associate alla stessa regione di DNA. Le modifiche hanno riguardato i marcatori rappresenatativi di cromatina trascrizionalmente repressa H3K27me3 (trimetilazione della Lys27 dell’istone H3) e di cromatina trascrizionalmente attiva H3K24me2 (dimetilazione della Lys4 dell’istone H3) che definiscono i domini detti bivalenti, associati a geni che codificano per fattori di trascrizione che regolano lo sviluppo in cellule embrionali staminali, mantenendoli pronti per un veloce indirizzamento verso l’ attivazione trascrizionale. Il ruolo che la regolazione epigenetica svolge durante il differenziamento di cellule staminali non è ancora noto con precisione. È chiaro però che la memoria della linea cellulare verso la quale si differenzia una cellula staminale adulta, implica l’utilizzo di modifiche epigenetiche, quali la metilazione del DNA e correlati pattern di metilazione e acetilazione istonica. L’ultimo progetto, trattato, è stato finalizzato a verificare il coinvolgimento dell’epigenetica e in particolare della metilazione dei promotori di fattori trascrizionali precocemente attivati durante il differenziamento verso il fenotipo muscolare cardiaco di cellule staminali umane derivate da tessuto adiposo (ADSCs).
Resumo:
Scopo di questa tesi di laurea sperimentale (LM) è stata la produzione di geopolimeri a base metacaolinitica con una porosità controllata. Le principali tematiche affrontate sono state: -la produzione di resine geopolimeriche, studiate per individuare le condizioni ottimali ed ottenere successivamente geopolimeri con un’ultra-macro-porosità indotta; -lo studio dell’effetto della quantità dell’acqua di reazione sulla micro- e meso-porosità intrinseche della struttura geopolimerica; -la realizzazione di schiume geopolimeriche, aggiungendo polvere di Si, e lo studio delle condizioni di foaming in situ; -la preparazione di schiume ceramiche a base di allumina, consolidate per via geopolimerica. Le principali proprietà dei campioni così ottenuti (porosità, area superficiale specifica, grado di geopolimerizzazione, comportamento termico, capacità di scambio ionico sia delle resine geopolimeriche che delle schiume, ecc.) sono state caratterizzate approfonditamente. Le principali evidenze sperimentali riscontrate sono: A)Effetto dell’acqua di reazione: la porosità intrinseca del geopolimero aumenta, sia come quantità che come dimensione, all’aumentare del contenuto di acqua. Un’eccessiva diluizione porta ad una minore formazione di nuclei con l’ottenimento di nano-precipitati di maggior dimensioni. Nelle schiume geopolimeriche, l’acqua gioca un ruolo fondamentale nell’espansione: deve essere presente un equilibrio ottimale tra la pressione esercitata dall’H2 e la resistenza opposta dalla parete del poro in formazione. B)Effetto dell’aggiunta di silicio metallico: un elevato contenuto di silicio influenza negativamente la reazione di geopolimerizzazione, in particolare quando associato a più elevate temperature di consolidamento (80°C), determinando una bassa geopolimerizzazione nei campioni. C)Effetto del grado di geopolimerizzazione e della micro- e macro-struttura: un basso grado di geopolimerizzazione diminuisce l’accessibilità della matrice geopolimerica determinata per scambio ionico e la porosità intrinseca determinata per desorbimento di N2. Il grado di geopolimerizzazione influenza anche le proprietà termiche: durante i test dilatometrici, se il campione non è completamente geopolimerizzato, si ha un’espansione che termina con la sinterizzazione e nell’intervallo tra i 400 e i 600 °C è presente un flesso, attribuibile alla transizione vetrosa del silicato di potassio non reagito. Le prove termiche evidenziano come la massima temperatura di utilizzo delle resine geopolimeriche sia di circa 800 °C.
Resumo:
Ma la città non dice il suo passato, lo contiene come le linee di una mano. Scritto negli spigoli delle vie, nelle griglie delle finestre, negli scorrimano delle scale, nelle antenne dei parafulmini, nelle aste delle bandiere, ogni segmento rigato a sua volta di graffi, seghettature, intagli, virgole1 Calvino così parla di Zaira in Le Città Invisibili nella sezione dedicata a Le città e la memoria. Forse nessuno meglio di lui ci restituisce una visione del concetto di memoria all’interno di città. Il tema del passato, quindi della sua memoria, è argomento imprescindibile per la progettazione di un museo archeologico. L’obbiettivo di questa tesi è finalizzato alla realizzazione di un parco archeologico e di un nuovo museo archeologico che valorizzi i tesori del paese di Verucchio. Lo scopo ricercato è quello cogliere i frutti di tante campagne archeologiche svoltesi in questa terra per restituire visibilmente alla memoria, l’eccezionale patrimonio storico di epoca Villanoviana-Etrusca. Parlare di archeologia significa, da sempre, indagare il tempo, la storia, e l’uomo. Dal momento in cui l’uomo riscopre il passato compie congiuntamente una revisione del presente e influenza il suo futuro. Le architetture che trattano il tema dell’archeologia riflettono su questioni ampie e complesse come la memoria storica, la salvaguardia e la rivitalizzazione delle risorse del territorio. Il museo, in particolare, è un tema architettonico privilegiato essendo esso una delle istituzioni fondamentali del mondo occidentale degli ultimi secoli. Il ruolo civile di un architetto, svolto all’interno della società, è maggiormente sollecitato quando si deve confrontare con una delle tipologie architettoniche di maggiore rilievo nella cultura moderna. Per questo è indispensabile acquisire una consapevolezza critica fondata sulla cultura e sulla conoscenza della realtà dei luoghi, con le sue ricchezze e contraddizioni, con le sue dinamiche e le sue risorse.
Resumo:
La temperatura influenza molti dei processi fisiologici degli organismi marini e, considerato che la riproduzione dei coralli sembrerebbe essere sensibile agli stress, è necessario comprendere come questa possa reagire ai cambiamenti climatici globali per riuscire a prevedere le future risposte delle popolazioni. Leptopsammia pruvoti (Scleractinia, Dendrophylliidae) è un corallo solitario non zooxantellato presente in Mediterraneo e lungo le coste Atlantiche dal Portogallo alla Gran Bretagna meridionale, dalla superficie fino a 70 metri di profondità.. È un organismo gonocorico con fecondazione interna. In questo lavoro di tesi sono stati analizzati gli aspetti della gametogenesi di L. pruvoti a diverse latitudini per ottenere risultati preliminari riguardanti le possibili correlazioni tra attività riproduttiva e parametri ambientali (temperatura e irradianza). Tale studio si colloca all’interno del progetto europeo sul riscaldamento globale e biologia dei coralli FP7–IDEAS-ERC “Corals and Global Warming: The Mediterranean versus the Red Sea” (CoralWarm). I risultati presentati in questo lavoro sono relativi a cinque popolazioni di L. pruvoti (Genova, Calafuria, Palinuro, Scilla e Pantelleria) disposte lungo un gradiente latitudinale di temperatura e irradianza nel versante occidentale della penisola italiana. I campioni sono stati raccolti mediante campionamenti mensili effettuati tramite immersioni subacquee. Su ogni campione sono state effettuate misurazioni biometriche e analisi cito-istometriche. Nelle popolazioni analizzate i parametri riproduttivi (fecondità, abbondanza, indice gonadico, dimensione) sono stati messi in relazione con la temperatura di fondo (DT, °C) e l’irradianza solare (W/m2) peculiari di ogni sito. L. pruvoti ha mostrato una sessualità gonocorica in tutti i siti considerati. In tutte le popolazioni, la presenza di due stock di ovociti e la distribuzione degli stadi di maturazione degli spermiari durante le fasi di attività riproduttiva, nell’arco dell’anno, hanno permesso di definire un periodo di reclutamento e uno di maturità gonadica, suggerendo che tali eventi siano influenzati dai cambiamenti stagionali della temperatura dell’acqua e del fotoperiodo. Nel periodo di reclutamento, la fecondità presentava una debole correlazione positiva con i parametri ambientali considerati. Al momento della maturità gonadica gli ovociti erano di dimensioni maggiori e meno numerosi rispetto al periodo precedente, nelle popolazioni con una maggiore temperatura e irradianza. Una possibile interpretazione potrebbe essere l’esistenza di un processo di fusione degli ovociti nel periodo di maturità gonadica che sembrerebbe più marcato nelle popolazioni più calde e maggiormente irradiate. La spermatogenesi, diversamente, non ha delineato finora un pattern chiaramente interpretabile. Con i dati attualmente in nostro possesso, non possiamo tuttavia escludere che le differenze riscontrate nelle dimensioni di ovociti e spermiari lungo il gradiente latitudinale considerato siano dovute a un lieve sfasamento nel raggiungimento della maturità gonadica, pur mantenendo la medesima stagionalità nel ciclo riproduttivo delle diverse popolazioni. Ulteriori studi saranno necessari per poter meglio comprendere i complessi meccanismi che regolano e controllano i processi riproduttivi al variare dei parametri ambientali. In questo modo sarà possibile considerare i risulti ottenuti nel contesto dei cambiamenti climatici globali.
Resumo:
Il presente lavoro d tesi si inserisce in un programma di ricerca più esteso mirato ad indagare i meccanismi di distacco tra fibrorinforzati e muratura. L'intera campagna sperimentale si suddivide in prove eseguite per determinare l'influenza del substrato sulla resistenza finale, per individuare l'influenza delle variazioni geometriche degli elementi sul fenomeno del debanding, per confrontare i risultati con i dati ottenuti in altre attività di ricerca.