1000 resultados para didattica ricerca operativa programmazione lineare scuole superiori
Resumo:
Actual trends in software development are pushing the need to face a multiplicity of diverse activities and interaction styles characterizing complex and distributed application domains, in such a way that the resulting dynamics exhibits some grade of order, i.e. in terms of evolution of the system and desired equilibrium. Autonomous agents and Multiagent Systems are argued in literature as one of the most immediate approaches for describing such a kind of challenges. Actually, agent research seems to converge towards the definition of renewed abstraction tools aimed at better capturing the new demands of open systems. Besides agents, which are assumed as autonomous entities purposing a series of design objectives, Multiagent Systems account new notions as first-class entities, aimed, above all, at modeling institutional/organizational entities, placed for normative regulation, interaction and teamwork management, as well as environmental entities, placed as resources to further support and regulate agent work. The starting point of this thesis is recognizing that both organizations and environments can be rooted in a unifying perspective. Whereas recent research in agent systems seems to account a set of diverse approaches to specifically face with at least one aspect within the above mentioned, this work aims at proposing a unifying approach where both agents and their organizations can be straightforwardly situated in properly designed working environments. In this line, this work pursues reconciliation of environments with sociality, social interaction with environment based interaction, environmental resources with organizational functionalities with the aim to smoothly integrate the various aspects of complex and situated organizations in a coherent programming approach. Rooted in Agents and Artifacts (A&A) meta-model, which has been recently introduced both in the context of agent oriented software engineering and programming, the thesis promotes the notion of Embodied Organizations, characterized by computational infrastructures attaining a seamless integration between agents, organizations and environmental entities.
Resumo:
Lo scopo di questa dissertazione è quello di costruire un modello di promozione della salute nel contesto di lavoro in relazione al consumo di sostanze psicoattive fra lavoratori, attraverso il confronto tra la situazione italiana e inglese. L’ipotesi di fondo rimanda all’idea che i luoghi di lavoro possano rappresentare setting d’elezione per i progetti di prevenzione non solo perché alcuni studi dimostrano l’esistenza di fattori di rischio connessi alla mansione rispetto alle condotte relative allo stile di vita, ma anche perché il consumo di alcol e droghe è altamente diffuso tra i lavoratori e questo comporta rischi per la sicurezza e la salute personale nonché quella dei colleghi di lavoro. Si tratta quindi di indagare il rapporto tra contesto lavorativo e utilizzo di sostanze al fine di suggerire alla luce degli studi internazionali in materia e delle riflessioni condotte dai soggetti coinvolti nella ricerca che si andrà a presentare linee guida e indicazioni operative per la realizzazione di interventi di promozione alla salute nei contesti professionali. A tal fine, saranno analizzati gli esiti di 13 focus group che hanno coinvolto esperti italiani e 6 interviste somministrate a esperti inglesi volti a definire la situazione attuale in Italia e Gran Bretagna in materia di prevenzione del consumo di alcol e droghe nei luoghi di lavoro. In particolare, l’analisi verterà sulle seguenti aree: - Percezione circa la diffusione dei consumi nei luoghi di lavoro - Presentazione delle politiche adottate, in logica comparativa, tra i due paesi. - Analisi critica degli interventi e problematiche aperte. L’analisi del materiale empirico permette di delineare due modelli costruiti sulla base dei focus group e delle interviste: - in Italia si può affermare che prevalga il cd. modello della sicurezza: di recente trasformazione, questo sistema enfatizza la dimensione del controllo, tanto che si parla di sorveglianza sanitaria. É orientato alla sicurezza concepita quale rimozione dei fattori di rischio. Il consumo di sostanze (anche sporadico) è inteso quale espressione di una patologia che richiede l’intervento sanitario secondo modalità previste dal quadro normativo: una procedura che annulla la discrezionalità sia del datore di lavoro sia del medico competente. Si connota inoltre per contraddizioni interne e trasversali rispetto alle categorie lavorative (i controlli non si applicano alle professioni associate a maggiore prestigio sociale sebbene palesemente associate a rischio, come per esempio i medici) e alle sostanze (atteggiamento repressivo soprattutto verso le droghe illegali); - in Gran Bretagna, invece, il modello si configura come responsabilità bilaterale: secondo questo modello, se è vero che il datore di lavoro può decidere in merito all’attuazione di misure preventive in materia di alcol e droghe nei luoghi di lavoro, egli è ritenuto responsabile della mancata vigilanza. D’altro canto, il lavoratore che non rispetta quanto previsto nella politica scritta può essere soggetto a licenziamento per motivi disciplinari. Questo modello, particolarmente attento al consumo di tutte le sostanze psicoattive (legali e illegali), considera il consumo quale esito di una libera scelta individuale attraverso la quale il lavoratore decide di consumare alcol e droghe così come decide di dedicarsi ad altre condotte a rischio. Si propone di ri-orientare le strategie analizzate nei due paesi europei presi in esame attraverso la realizzazione di un modello della promozione della salute fondato su alcuni punti chiave: – coinvolgimento di tutti i lavoratori (e non solo coloro che svolgono mansioni a rischio per la sicurezza) al fine di promuovere benessere secondo un approccio olistico di salute, orientato ad intervenire non soltanto in materia di consumo di sostanze psicoattive (legali e illegali), ma più in generale sulle condotte a rischio; – compartecipazione nelle diverse fasi (programmazione, realizzazione e valutazione del progetto) del lavoratore, datore di lavoro e medico competente secondo una logica di flessibilità, responsabilizzazione condivisa fra i diversi attori, personalizzazione e co-gestione dell’intervento; – azione volta a promuovere i fattori di protezione agendo simultaneamente sul contrasto dei fattori di rischio (stress, alienazione, scarso riconoscimento del ruolo svolto), attraverso interventi che integrano diverse strategie operative alla luce delle evidenze scientifiche (Evidence-Based Prevention); – ricorso a strumenti di controllo (drug testing) subordinato all’esigenza di tutelare l’incolumità fisica del lavoratore e dei colleghi, da attuarsi sempre e comunque attraverso prassi che non violino la privacy e attraverso strumenti in grado di verificare l’effettivo stato di alterazione psico-fisica sul luogo di lavoro; – demedicalizzazione delle situazioni di consumo che non richiedono un intervento prettamente sanitario, ma che al contrario potrebbero essere affrontate attraverso azioni incentrate sul care anziché la cure; – messa a disposizione di servizi ad hoc con funzione di supporto, counselling, orientamento per i lavoratori, non stigmatizzanti e con operatori di formazione non solamente sanitaria, sull’esempio degli EAPs (Employee Assistence Programs) statunitensi. Si ritiene che questo modello possa trasformare i contesti di lavoro da agenzie di controllo orientate alla sicurezza a luoghi di intervento orientati al benessere attraverso un’azione sinergica e congiunta volta a promuovere i fattori di protezione a discapito di quelli di rischio in modo tale da intervenire non soltanto sul consumo di sostanze psicotrope, ma più in generale sullo stile di vita che influenza la salute complessiva.
Resumo:
Oggetto della ricerca è la tematica dell’opposizione parlamentare ed in particolare, il manifestarsi della stessa attraverso l’ostruzionismo praticato nelle assemblee legislative. La comprensione della funzione oppositoria è stata raggiunta assumendo come primigenio modello di riferimento l’esperienza presente nel sistema parlamentare inglese nel quale la dialettica democratica si svolge tra schieramenti nettamente contrapposti. L’approfondimento della figura oppositoria, poi, si è snodata nello studio delle diverse tipologie di opposizione conosciute nelle moderne democrazie, nonchè nella valutazione dei diversi livelli di riconoscimento che questa assume nei moderni contesti giuridici. Passando specificamente all’analisi dell’ostruzionismo parlamentare, la ricerca ha preliminarmente privilegiato lo studio dei soggetti che lo pongono in essere e del movente e delle finalità perseguite attraverso questa estrema forma di contestazione politica. Lo studio delle attività ostruzionistiche ha altresì valutato le modalità di esercizio ed i mezzi impiegati nella sua realizzazione, nonché le questioni di legittimità connesse a tale pratica. Ma è stata l’analisi dei regolamenti parlamentari, che com’è noto hanno subito le più incisive modificazioni quasi sempre in rapporto ad importanti episodi di ostruzionismo, a rappresentare il momento centrale del lavoro. Dopo la stagione di ostruzionismo esasperato degli anni settanta, all’interno del Parlamento sono cambiate le “regole del gioco” (considerate eccessivamente garantiste per le minoranze), in funzione dell’uso e non più dell’abuso del tempo da parte di tutti i soggetti istituzionali. L’effetto di tali riforme è stato quello di riqualificare la dialettica tra maggioranza ed opposizione, in particolare garantendo alla prima strumenti efficaci per conseguire il programma di Governo ed alla seconda strumenti che consentano di rendere visibili le proposte legislative alternative più qualificate. L’analisi dell’atteggiamento politico dell’opposizione parlamentare è stata altresì valutata alla luce degli effetti prodotti dalle ultime riforme elettorali e dalla loro incidenza sulle manifestazioni ostruzionistiche. La transizione (sia pure incompiuta) della forma di governo, attuata attraverso la trasformazione del sistema elettorale, ha segnato il passaggio da un sistema multipolare ad uno bipolare, con i conseguenti riflessi che si sono prodotti sui rapporti di forza tra maggioranza e opposizione. Nell’attuale logica bipolare, rimasta comunque immutata nonostante il ritorno ad un sistema elettorale nuovamente proporzionale caratterizzato dal premio di maggioranza, la riforma elettorale non ha lasciato indifferente l’atteggiarsi dell’ostruzionismo: il maggior potere, non solo numerico, che la maggioranza parlamentare è venuta ad assumere, ha spostato gli equilibri all’interno degli organi elettivi consentendo un’identificazione tra minoranza ed opposizione. Nel capitolo dedicato all’analisi dei regolamenti parlamentari è stata offerta una ricostruzione descrittiva dell’evoluzione subita dai regolamenti ed una di comparazione diacronica dei rimedi progressivamente adottati negli stessi per fronteggiare le possibili manifestazioni ostruzionistiche. Nella prospettiva di evidenziare le attuali dinamiche parlamentari, è stata affrontata una ricostruzione in chiave evolutiva subita dai regolamenti a partire dalla fase pre-repubblicana, fino ai regolamenti attualmente vigenti, ricomprendendo altresì le proposte di modifica allo stato in discussione in Parlamento. Dall’analisi complessiva è emerso che la debole razionalizzazione della forma di governo, il bicameralismo paritario ed indifferenziato, l’assenza di una riserva normativa a favore del governo e di strumenti giuridici per incidere sull’attività del Parlamento, hanno fatto sì che fossero i regolamenti parlamentari a dover supplire alla scarna disciplina costituzionale. A fronte della lenta ed incompiuta transizione della forma di governo parlamentare e dell’evolversi delle tecniche ostruzionistiche, si sono di conseguenza adeguate le misure di contenimento disciplinate nei regolamenti parlamentari. In questi ultimi dunque, è possibile rintracciare l’excursus storico delle misure adottate per regolare i possibili strumenti ostruzionistici previsti e disciplinati nelle procedure ed impiegati dalle minoranze per tentare di impedire la decisione finale. La comparazione, invece, ha evidenziato una progressiva opera di contenimento dei fenomeni ostruzionistici ottenuta essenzialmente con la razionalizzazione delle procedure parlamentari, l’introduzione del metodo della programmazione, del contingentamento dei tempi, nonché l’ampliamento dei poteri discrezionali dei Presidenti di assemblea nella loro opera di garanti della corretta dialettica parlamentare. A completamento del lavoro svolto è stato infine determinante la considerazione della concreta prassi parlamentare riscontrata nel corso delle legislature maggioritarie: la valutazione complessiva dei dati provenienti dal Servizio Studi della Camera, infatti, ha permesso di verificare come si sono manifestate in pratica le tecniche ostruzionistiche impiegate dall’opposizione per contrastare le politiche della maggioranza nel corso della XIII e della XIV Legislatura.
Resumo:
PRESUPPOSTI: Le tachicardie atriali sono comuni nei GUCH sia dopo intervento correttivo o palliativo che in storia naturale, ma l’incidenza è significativamente più elevata nei pazienti sottoposti ad interventi che prevedono un’estesa manipolazione atriale (Mustard, Senning, Fontan). Il meccanismo più frequente delle tachicardie atriali nel paziente congenito adulto è il macrorientro atriale destro. L’ECG è poco utile nella previsione della localizzazione del circuito di rientro. Nei pazienti con cardiopatia congenita sottoposta a correzione biventricolare o in storia naturale il rientro peritricuspidale costituisce il circuito più frequente, invece nei pazienti con esiti di intervento di Fontan la sede più comune di macrorientro è la parete laterale dell’atrio destro. I farmaci antiaritmici sono poco efficaci nel trattamento di tali aritmie e comportano un’elevata incidenza di effetti avversi, soprattutto l’aggravamento della disfunzione sinusale preesistente ed il peggioramento della disfunzione ventricolare, e di effetti proaritmici. Vari studi hanno dimostrato la possibilità di trattare efficacemente le IART mediante l’ablazione transcatetere. I primi studi in cui le procedure venivano realizzate mediante fluoroscopia tradizionale, la documentazione di blocco di conduzione translesionale bidirezionale non era routinariamente eseguita e non tutti i circuiti di rientro venivano sottoposti ad ablazione, riportano un successo in acuto del 70% e una libertà da recidiva a 3 anni del 40%. I lavori più recenti riportano un successo in acuto del 94% ed un tasso di recidiva a 13 mesi del 6%. Questi ottimi risultati sono stati ottenuti con l’utilizzo delle moderne tecniche di mappaggio elettroanatomico e di cateteri muniti di sistemi di irrigazione per il raffreddamento della punta, inoltre la dimostrazione della presenza di blocco di conduzione translesionale bidirezionale, l’ablazione di tutti i circuiti indotti mediante stimolazione atriale programmata, nonché delle sedi potenziali di rientro identificate alla mappa di voltaggio sono stati considerati requisiti indispensabili per la definizione del successo della procedura. OBIETTIVI: riportare il tasso di efficia, le complicanze, ed il tasso di recidiva delle procedure di ablazione transcatetere eseguite con le moderne tecnologie e con una rigorosa strategia di programmazione degli obiettivi della procedura. Risultati: Questo studio riporta una buona percentuale di efficacia dell’ablazione transcatetere delle tachicardie atriali in una popolazione varia di pazienti con cardiopatia congenita operata ed in storia naturale: la percentuale di successo completo della procedura in acuto è del 71%, il tasso di recidiva ad un follow-up medio di 13 mesi è pari al 28%. Tuttavia se l’analisi viene limitata esclusivamente alle IART il successo della procedura è pari al 100%, i restanti casi in cui la procedura è stata definita inefficace o parzialmente efficace l’aritmia non eliminata ma cardiovertita elettricamente non è un’aritmia da rientro ma la fibrillazione atriale. Inoltre, sempre limitando l’analisi alle IART, anche il tasso di recidiva a 13 mesi si abbassa dal 28% al 3%. In un solo paziente è stato possibile documentare un episodio asintomatico e non sostenuto di IART al follow-up: in questo caso l’aspetto ECG era diverso dalla tachicardia clinica che aveva motivato la prima procedura. Sebbene la diversa morfologia dell’attivazione atriale all’ECG non escluda che si tratti di una recidiva, data la possibilità di un diverso exit point del medesimo circuito o di un diverso senso di rotazione dello stesso, è tuttavia più probabile l’emergenza di un nuovo circuito di macrorientro. CONCLUSIONI: L'ablazione trancatetere, pur non potendo essere considerata una procedura curativa, in quanto non in grado di modificare il substrato atriale che predispone all’insorgenza e mantenimento della fibrillazione atriale (ossia la fibrosi, l’ipertrofia, e la dilatazione atriale conseguenti alla patologia e condizione anatomica di base)è in grado di assicurare a tutti i pazienti un sostanziale beneficio clinico. È sempre stato possibile sospendere l’antiaritmico, tranne 2 casi, ed anche nei pazienti in cui è stata documentata una recidiva al follow-up la qualità di vita ed i sintomi sono decisamente migliorati ed è stato ottenuto un buon controllo della tachiaritmia con una bassa dose di beta-bloccante. Inoltre tutti i pazienti che avevano sviluppato disfunzione ventricolare secondaria alla tachiaritmia hanno presentato un miglioramento della funzione sistolica fino alla normalizzazione o al ritorno a valori precedenti la documentazione dell’aritmia. Alla base dei buoni risultati sia in acuto che al follow-up c’è una meticolosa programmazione della procedura e una rigorosa definizione degli endpoint. La dimostrazione del blocco di conduzione translesionale bidirezionale, requisito indispensabile per affermare di aver creato una linea continua e transmurale, l’ablazione di tutti i circuiti di rientro inducibili mediante stimolazione atriale programmata e sostenuti, e l’ablazione di alcune sedi critiche, in quanto corridoi protetti coinvolti nelle IART di più comune osservazione clinica, pur in assenza di una effettiva inducibilità periprocedurale, sono obiettivi necessari per una procedura efficace in acuto e a distanza. Anche la disponibilità di moderne tecnologie come i sistemi di irrigazione dei cateteri ablatori e le metodiche di mappaggio elettroanantomico sono requisiti tecnici molto importanti per il successo della procedura.
Resumo:
La frenetica evoluzione sociale e culturale, data dal crescente e continuo bisogno di conoscenza dell’uomo, ha portato oggi a navigare in un oceano sconfinato di dati e informazioni. Esse assumono una propria peculiare importanza, un valore sia dal punto di vista del singolo individuo, sia all’interno di un contesto sociale e di un settore di riferimento specifico e concreto. La conseguente mutazione dell’interazione e della comunicazione a livello economico della società, ha portato a parlare oggi di economia dell’informazione. In un contesto in cui l’informazione rappresenta la risorsa principale per l’attività di crescita e sviluppo economico, è fondamentale possedere la più adeguata strategia organizzativa per la gestione dei dati grezzi. Questo per permetterne un’efficiente memorizzazione, recupero e manipolazione in grado di aumentare il valore dell’organizzazione che ne fa uso. Un’informazione incompleta o non accurata può portare a valutazioni errate o non ottimali. Ecco quindi la necessità di gestire i dati secondo specifici criteri al fine di creare un proprio vantaggio competitivo. La presente rassegna ha lo scopo di analizzare le tecniche di ottimizzazione di accesso alle basi di dati. La loro efficiente implementazione è di fondamentale importanza per il supporto e il corretto funzionamento delle applicazioni che ne fanno uso: devono garantire un comportamento performante in termini di velocità, precisione e accuratezza delle informazioni elaborate. L’attenzione si focalizzerà sulle strutture d’indicizzazione di tipo gerarchico: gli alberi di ricerca. Verranno descritti sia gli alberi su dati ad una dimensione, sia quelli utilizzati nel contesto di ricerche multi dimensionali (come, ad esempio, punti in uno spazio). L’ingente sforzo per implementare strutture di questo tipo ha portato gli sviluppatori a sfruttare i principi di ereditarietà e astrazione della programmazione ad oggetti al fine di ideare un albero generalizzato che inglobasse in sé tutte le principali caratteristiche e funzioni di una struttura di indicizzazione gerarchica, così da aumentarne la riusabilità per i più particolari utilizzi. Da qui la presentazione della struttura GiST: Generalized Search Tree. Concluderà una valutazione dei metodi d’accesso esposti nella dissertazione con un riepilogo dei principali dati relativi ai costi computazionali, vantaggi e svantaggi.
Resumo:
Punto di partenza per il lavoro presentato, sono le tematiche legate alle pratiche di consumo di cibo in un’ottica che superi una semplice visione utilitaristica delle stesse, mentre viene evidenziato invece il più profondo rapporto uomo-cibo e i fenomeni di socializzazione che ne scaturiscono. Si trovano pertanto a coniugarsi la sociologia dei consumi e la sociologia della cultura. La base per questa visione del cibo e delle pratiche di produzione e consumo ad esso collegate è l’ipotesi che nel rapporto uomo-cibo sia individuabile un livello di significato superiore al mero utilitarismo/nutrizionismo, che si compone di una dimensione strutturale, una dimensione simbolica ed una dimensione metaforica. Il cibo, e di conseguenza tutte le pratiche ad esso collegate (produzione, elaborazione, consumo), rientrano pertanto in maniera naturale nella categoria “cultura”, e quindi, accostandoci al paradigma del passaggio da natura a società, attraverso il cibo si crea e si alimenta la socialità del consorzio umano, e quindi l’umanità stessa. Accostando a queste concettualizzazioni l’idea che il consumo in generale possa diventare una prassi tramite cui esperire una più diffusa ricerca di sostenibilità nello sviluppo del territorio, (facendosi carico delle conseguenze socio-ambientali derivanti dalla fruizione di determinati oggetti piuttosto che altri), si è sviluppata l’ipotesi che al consumo alimentare possa competere un ruolo precipuamente attivo nella definizione di pratiche sociali orientate alla sostenibilità, capaci cioè di integrare attraverso il consumo – e in relazione all’indebolimento delle tradizionali agenzie di socializzazione – quella perdita di senso civico e solidarietà organizzata che sperimentiamo nelle prassi di vita quotidiana. Sul piano operativo, la tesi è articolata in sei capitoli: • Il percorso presentato prende le mosse dalla considerazione che il cibo, inteso in un’ottica sociologica, costituisce un fattore culturale non irrilevante, anzi fondamentale per il consorzio umano. Si fornisce quindi una breve descrizione del ruolo del cibo nei suoi accostamenti con la definizione di un territorio (e quindi con la sua storia, economia e società), con le arti visive, con il cinema, con la musica, ma anche con la sfera sensoriale (tatto, gusto, olfatto) ed emotivo-cognitiva (psiche) dell’uomo. • Successivamente, si analizza nello specifico la funzione socializzante delle pratiche alimentari, ripercorrendo le tappe principali degli studi classici di sociologia e antropologia dell’alimentazione e introducendo anche l’idea di cibo come simbolo e metafora, che si riflettono sul piano sociale e sulle relazioni tra gli individui. La constatazione che le pratiche legate al cibo sono le uniche attività umane da sempre e per sempre irrinunciabili è un chiaro indicatore di come esse giochino un ruolo fondamentale nella socializzazione umana. • Nel terzo capitolo, la prospettiva simbolico-metaforica è la base di un’analisi di tipo storico delle pratiche alimentari, nello specifico delle pratiche di consumo di cibo, dalle origini dell’umanità ai giorni nostri. Viene presentato un excursus essenziale in cui l’attenzione è focalizzata sulla tavola, sui cibi ivi serviti e sugli eventi di socializzazione che si sviluppano attorno ad essa, considerando situazioni storico-sociali oggettive di cui si è in grado, oggi, di ricostruire le dinamiche e le fasi più significative. • Il quarto capitolo costituisce un momento di riflessione teorica intorno al tema della globalizzazione nella contemporaneità. Sia per una logica progressione cronologica all’interno del lavoro presentato, sia per la rilevanza in quanto inerente alla società attuale in cui viviamo, non si è potuto infatti non soffermarsi un po’ più a fondo sull’analisi delle pratiche alimentari nella contemporaneità, e quindi nella società generalmente definita come “globalizzata” (o “mcdonaldizzata”, per dirla alla Ritzer) ma che in realtà è caratterizzata da un più sottile gioco di equilibri tra dimensione locale e dimensione globale, che si compenetrano come anche nel termine che indica tale equilibrio: il “glocale”. In questo capitolo vengono presentati i principali riferimenti teorici relativi a queste tematiche. • Nel quinto capitolo è stata analizzata, quindi, la declinazione in senso “alimentare” della relazione tra globale e locale, e quindi non solo i mutamenti intercorsi nella contemporaneità nelle pratiche di produzione, scambio e consumo di cibo con particolare riferimento ai sistemi culturali e al territorio, ma anche alcune proposte (sia teoriche che pratiche) a garanzia di uno sviluppo sostenibile del territorio, che trovi i suoi fondamenti sulla perpetuazione di modalità tradizionali di produzione, commercio e consumo di cibo. • Nel sesto capitolo viene analizzato un caso di studio significativo, (il movimento Slow Food, con il suo progetto Terra Madre) senza la pretesa di confermare o smentire né le ipotesi di partenza, né i concetti emersi in itinere, ma semplicemente con l’intenzione di approfondire il percorso svolto attraverso l’esemplificazione operativa e la ricerca entro un piccolo campione composto da testimoni significativi e intervistati, sottoposti a colloqui e interviste incentrate su item inerenti i temi generali di questo lavoro e sul caso di studio considerato. La scelta del caso è motivata dalla considerazione che, alla luce delle filosofia che lo anima e delle attività che svolge, il movimento Slow Food con il progetto Terra Madre costituisce una vera e propria eccellenza nella pianificazione di uno sviluppo sostenibile del territorio e delle sue risorse, tanto economiche quanto sociali e culturali. L’intera analisi è stata condotta tenendo presente l’importanza della comparazione e della collocazione del singolo caso non solo nel contesto sociale di riferimento, ma anche in sintonia con l’ipotesi della ricerca, e quindi con l’assunto che le pratiche alimentari possano guidare uno sviluppo sostenibile del territorio. Per analizzare la realtà individuata, si è in primo luogo proceduto alla raccolta e all’analisi di dati e informazioni volte alla ricostruzione della sua storia e del suo sviluppo attuale. Le informazioni sono state raccolte attraverso l’analisi di materiali, documenti cartacei e documenti multimediali. Si è poi proceduto con colloqui in profondità a testimoni significativi individuati nell’ambito delle attività promosse da Slow Food, con particolare riferimento alle attività di Terra Madre; le informazioni sono state elaborate con l’ausilio dell’analisi del contenuto. Alla luce di quanto analizzato, tanto a livello teorico quanto a livello empirico, la tesi si conclude con alcune considerazioni che, in linea con la finalità dichiarata di approfondire (più che di confermare o smentire) le ipotesi di partenza circa un ruolo fondamentale delle pratiche alimentari nello sviluppo sostenibile del territorio, non possono comunque non tendere ad una convalida dei concetti introduttivi. Si individuano pertanto spunti importanti per affermare che nelle pratiche alimentari, nei tre momenti in cui trovano specificazione (la produzione, lo scambio, il consumo), siano individuabili quei semi valoriali che possono dare solidità alle ipotesi di partenza, e che quindi - nell’intento di operare per uno sviluppo sostenibile del territorio - sia possibile farne un valido strumento al fine di costruire dei veri e propri percorsi di sostenibilità ancorati ai concetti di tutela della tradizione locale, recupero e salvaguardia dei metodi tradizionali di produzione e conservazione, certificazione di tipicità, controllo della distribuzione, riscatto e promozione delle modalità tradizionali di consumo con particolare riferimento alle culture locali.
Resumo:
Progetto di riqualificazione urbana di un'area industriale attraverso il riordino del verde. Inserimento di laboratori di ricerca e incubatori d'impresa e coworking e riorganizzazione degli impianti sportivi preesistenti.
Resumo:
Il lavoro di tesi ha l’obiettivo di dare seguito e profondità alle verifiche già condotte negli anni scorsi da Monticini e Baglioni, da Angelini e da Vento e La Ganga. Nel dettaglio nella serie storica dei tassi scambiati, sul comparto ON, del mercato e-Mid, riscontrano empiricamente che i tassi scambiati nelle prime ore del mattino sono in media superiori rispetto a quelli del pomeriggio. In pratica emerge un costo orario positivo. Il campione è costituito da 196.571 contratti eseguiti tra il 1 gennaio 2007 ed il 31 marzo 2009, sul comparto ON. Le analisi si sono concentrate sull’intensità del reversal patttern, oltre che su base giornaliera anche su base settimanale (day of the week) e su base mensile (month of the year effect). Le medesime analisi sono state condotte sull’ultimo giorno del periodo di mantenimento, e su particolari giorni che hanno scandito la crisi finanziaria. Per osservare la dinamica del reversal pattern prima e durante la crisi, le medesime verifiche sono condotte su tre sub campioni. Il primo considera tutti i contratti dall’inizio e fino all’8 agosto compreso; il secondo da quest’ultimo e fino al 12 settembre 2008 compreso; l’ultimo dal fallimento della Lehman e fino al 31 marzo 2009. I risultati confermano la presenza del reversal, per tutti i giorni e per tutti i mesi. Tuttavia quando il campione è suddiviso, le stime del primo campione, perdono di significatività, in particolare il giovedì ed il mese di febbraio. Sel medesimo periodo di campionamento al fine di verificare se il reversal pattern sia attribuire in parte anche alla liquidità del mercato, si è indagato su tutte le proposte in bid ed in offer, e dei relativi volumi, ovvero sul bid ask spread, il relativo prezzo medio ed i volumi. Anche in questo caso le analisi si sono concentrate oltre che sul campione originario, anche sui tre sub campioni in cui è stato successivamente suddiviso. . Quando infine si analizzano volumi e proposte, si nota innanzitutto che, al mattino, quando i prezzi scambiati sono maggiori il bid ask spread è minimo. Viceversa il pomeriggio quando il BAS è minore. La stessa dinamica si osserva per lo spread effettivo (SE), il quale è pari alla differenza tra prezzo medio delle contrattazioni e prezzo medio delle proposte. Infine i volumi sia delle proposte che delle contrattazioni, sono maggiori al mattino rispetto al pomeriggio e tendono a decrescere con l’intensificarsi della crisi. Inoltre i volumi in bid sono sempre maggiori rispetto a quelli in offer al mattino piuttosto che al pomeriggio.
Resumo:
This thesis presents the outcomes of a Ph.D. course in telecommunications engineering. It is focused on the optimization of the physical layer of digital communication systems and it provides innovations for both multi- and single-carrier systems. For the former type we have first addressed the problem of the capacity in presence of several nuisances. Moreover, we have extended the concept of Single Frequency Network to the satellite scenario, and then we have introduced a novel concept in subcarrier data mapping, resulting in a very low PAPR of the OFDM signal. For single carrier systems we have proposed a method to optimize constellation design in presence of a strong distortion, such as the non linear distortion provided by satellites' on board high power amplifier, then we developed a method to calculate the bit/symbol error rate related to a given constellation, achieving an improved accuracy with respect to the traditional Union Bound with no additional complexity. Finally we have designed a low complexity SNR estimator, which saves one-half of multiplication with respect to the ML estimator, and it has similar estimation accuracy.
Resumo:
Obiettivo: Lo scopo della ricerca è stato quello di mettere in evidenza la presenza di patologie del cavo orale in soggetti tossicodipendenti Materiali e Metodi: Sono stati reclutati 71 pazienti in terapia di recupero presso la Comunità Incontro di Amelia. I soggetti sono stati sottoposti a visite clinico-anamnestiche adottando una cartella clinica da noi stessi costruita. Risultati: Dei 71 soggetti tossicodipendenti, 42 facevano uso di eroina e 39 assumevano droghe per via parenterale, ma solo 25 risultavano avere malattie infettive. Per quanto riguarda la patologia cariosa, abbiamo riscontrato una media di carie complessive di 4,40 di cui solo lo 0,52 era al colletto (non è stata evidenziata significativa differenza tra soggetti con o senza patologie infettive). Dal punto di vista parodontale solo 13 presentavano parodontite e 25 lesioni del cavo orale non di carattere maligno. Conclusioni: I dati ottenuti nella nostra ricerca preliminare ci hanno portato a dire che non esiste una netta correlazione tra tipologia di droga e patologia orale ma sembrerebbe piuttosto che le lesioni cariose e parodontali riscontrate siano da associarsi allo stile di vita di questi soggetti.
Resumo:
The research work concerns the analysis of the foundations of Quantum Field Theory carried out from an educational perspective. The whole research has been driven by two questions: • How the concept of object changes when moving from classical to contemporary physics? • How are the concepts of field and interaction shaped and conceptualized within contemporary physics? What makes quantum field and interaction similar to and what makes them different from the classical ones? The whole work has been developed through several studies: 1. A study aimed to analyze the formal and conceptual structures characterizing the description of the continuous systems that remain invariant in the transition from classical to contemporary physics. 2. A study aimed to analyze the changes in the meanings of the concepts of field and interaction in the transition to quantum field theory. 3. A detailed study of the Klein-Gordon equation aimed at analyzing, in a case considered emblematic, some interpretative (conceptual and didactical) problems in the concept of field that the university textbooks do not address explicitly. 4. A study concerning the application of the “Discipline-Culture” Model elaborated by I. Galili to the analysis of the Klein-Gordon equation, in order to reconstruct the meanings of the equation from a cultural perspective. 5. A critical analysis, in the light of the results of the studies mentioned above, of the existing proposals for teaching basic concepts of Quantum Field Theory and particle physics at the secondary school level or in introductory physics university courses.
Resumo:
Le tecniche dell'informazione e i metodi della comunicazione hanno modificato il modo di redigere documenti destinati a trasmettere la conoscenza, in un processo che è a tutt'oggi in corso di evoluzione. Anche l'attività progettuale in ingegneria ed architettura, pure in un settore caratterizzato da una notevole inerzia metodologica e restio all'innovazione quale è quello dell'industria edilizia, ha conosciuto profonde trasformazioni in ragione delle nuove espressioni tecnologiche. Da tempo l'informazione necessaria per realizzare un edificio, dai disegni che lo rappresentano sino ai documenti che ne indicano le modalità costruttive, può essere gestita in maniera centralizzata mediante un unico archivio di progetto denominato IPDB (Integrated Project DataBase) pur essendone stata recentemente introdotta sul mercato una variante più operativa chiamata BIM (Building Information Modelling). Tuttavia l'industrializzazione del progetto che questi strumenti esplicano non rende conto appieno di tutti gli aspetti che vedono la realizzazione dell'opera architettonica come collettore di conoscenze proprie di una cultura progettuale che, particolarmente in Italia, è radicata nel tempo. La semantica della rappresentazione digitale è volta alla perequazione degli elementi costitutivi del progetto con l'obiettivo di catalogarne le sole caratteristiche fabbricative. L'analisi della letteratura scientifica pertinente alla materia mostra come non sia possibile attribuire ai metodi ed ai software presenti sul mercato la valenza di raccoglitori omnicomprensivi di informazione: questo approccio olistico costituisce invece il fondamento della modellazione integrata intesa come originale processo di rappresentazione della conoscenza, ordinata secondo il paradigma delle "scatole cinesi", modello evolvente che unifica linguaggi appartenenti ai differenti attori compartecipanti nei settori impiantistici, strutturali e della visualizzazione avanzata. Evidenziando criticamente i pregi e i limiti operativi derivanti dalla modellazione integrata, la componente sperimentale della ricerca è stata articolata con l'approfondimento di esperienze condotte in contesti accademici e professionali. Il risultato conseguito ha coniugato le tecniche di rilevamento alle potenzialità di "modelli tridimensionali intelligenti", dotati cioè di criteri discriminanti per la valutazione del relazionamento topologico dei componenti con l'insieme globale.
Resumo:
Calcolo della superficie curvilinea di scorrimento di un getto di litio in maniera che la pressione lungo il getto vari in maniera lineare. Formulazione di un codice di calcolo per la determinazione delle diverse possibili superfici. Studio termofluidodinamico del getto con codici CFD. Accoppiamento tra codici di sistema e codici CFD. Valutazioni delle condizioni di Incipient Boiling per il litio.
Resumo:
Poco più di dieci anni fa, nel 1998, è stata scoperta l’ipocretina (ovvero orexina), un neuropeptide ipotalamico fondamentale nella regolazione del ciclo sonno-veglia, dell’appetito e della locomozione (de Lecea 1998; Sakurai, 1998; Willie, 2001). La dimostrazione, pochi mesi dopo, di bassi livelli di ipocretina circolanti nel liquido cefalo-rachidiano di pazienti affetti da narcolessia con cataplessia (Mignot 2002) ha definitivamente rilanciato lo studio di questa rara malattia del Sistema Nervoso Centrale, e le pubblicazioni a riguardo si sono moltiplicate. In realtà le prime descrizioni della narcolessia risalgono alla fine del XIX secolo (Westphal 1877; Gélineau 1880) e da allora la ricerca clinica è stata volta soprattutto a cercare di definire il più accuratamente possibile il fenotipo del paziente narcolettico. Accanto all’alterazione del meccanismo di sonno e di veglia, e dell’alternanza tra le fasi di sonno REM (Rapid Eye Movement) e di sonno non REM, sui quali l’ipocretina agisce come un interruttore che stimola la veglia e inibisce la fase REM, sono apparse evidenti anche alterazioni del peso e del metabolismo glucidico, dello sviluppo sessuale e del metabolismo energetico (Willie 2001). I pazienti narcolettici presentano infatti, in media, un indice di massa corporea aumentato (Dauvilliers 2007), la tendenza a sviluppare diabete mellito di tipo II (Honda 1986), un’aumentata prevalenza di pubertà precoce (Plazzi 2006) e alterazioni del metabolismo energetico, rispetto alla popolazione generale (Dauvilliers 2007). L’idea che, quindi, la narcolessia abbia delle caratteristiche fenotipiche intrinseche altre, rispetto a quelle più eclatanti che riguardano il sonno, si è fatta strada nel corso del tempo; la scoperta della ipocretina, e della fitta rete di proiezioni dei neuroni ipocretinergici, diffuse in tutto l’encefalo fino al ponte e al bulbo, ha offerto poi il substrato neuro-anatomico a questa idea. Tuttavia molta strada separa l’intuizione di un possibile legame dall’individuazione dei reali meccanismi patogenetici che rendano conto dell’ampio spettro di manifestazioni cliniche che si osserva associato alla narcolessia. Lo studio svolto in questi tre anni si colloca in questa scia, e si è proposto di esplorare il fenotipo narcolettico rispetto alle funzioni dell’asse ipotalamo-ipofisi-periferia, attraverso un protocollo pensato in stretta collaborazione fra il Dipartimento di Scienze Neurologiche di Bologna e l’Unità Operativa di Endocrinologia e di Malattie del Metabolismo dell’Ospedale Sant’Orsola-Malpighi di Bologna. L’ipotalamo è infatti una ghiandola complessa e l’approccio multidisciplinare è sembrato essere quello più adatto. I risultati ottenuti, e che qui vengono presentati, hanno confermato le aspettative di poter dare ulteriori contributi alla caratterizzazione della malattia; un altro aspetto non trascurabile, e che però verrà qui omesso, sono le ricadute cliniche in termini di inquadramento e di terapia precoce di quelle alterazioni, non strettamente ipnologiche, e però associate alla narcolessia.
Resumo:
Relaxor-Ferroelektrika sind wegen ihrer möglichen technischen Anwendungen und vom Standpunkt der Grundlagenforschung als Beispiel für ungeordnete Systeme von wissenschaftlichem Interesse. Trotz zahlreicher experimenteller Untersuchungen sind die mikroskopischen Ursachen ihrer Eigenschaften aber nach wie vor ungeklärt. Im Rahmen dieser Arbeit wurde das Relaxor-Ferroelektrikum Bleimagnesiumniobat-Bleititanat (PMN-10PT) mittels linearer und nichtlinearer dielektrischer Spektroskopie untersucht. Durch Anregung mit starken elektrischen Wechselfeldern konnten mit der Methode des nichtresonanten dielektrischen Lochbrennens frequenzselektiv einzelne spektrale Bereiche aus dem verbreiterten Relaxationsspektrum herausgegriffen und deren Rückrelaxation separat verfolgt werden. Die experimentellen Ergebnisse zeigten, daß eine langlebige dynamische Heterogenität der dipolaren Reorientierung existiert. Durch ihr ausgeprägt nichtergodisches Verhalten zeigen Relaxor-Ferroelektrika starke Alterungseffekte. Die Untersuchung des Alterungsverhaltens der dielektrischen Suszeptibilität zeigte, daß ein Gedächtnis für die bei einer Alterungstemperatur eingenommene Konfiguration bestehen bleibt, sofern die Temperatur nach einer unvollständigen isothermen Alterung nur um einige Grad abgesenkt oder erhöht wurde.Außerdem wurde die induzierte Polarisation bei stochastischen dielektrischen Anregungen mit elektrischen Feldern, die in sehr guter Näherung ein weißes Rauschen darstellten, untersucht. Über die Bildung der Kreuzkorrelationsfunktion zwischen Feld und Polarisation konnte die Impulsantwortfunktion des Systems berechnet werden.Die experimentellen Ergebnisse am Relaxor-Ferroelektrikum PMN-10PT können sehr gut mit einem Modell eines ungeordneten Ferroelektrikums erklärt werden, dessen Domänenwände unordnungsbedingt an sogenannten Pinning-Zentren festhaften.