969 resultados para Orientamento di Grafi, Ricerca Operativa, CPLEX
Resumo:
La farmacogenetica fornisce un importante strumento utile alla prescrizione farmacologica, migliorando l’efficacia terapeutica ed evitando le reazioni avverse. Il citocromo P450 gioca un ruolo centrale nel metabolismo di molti farmaci utilizzati nella pratica clinica e il suo polimorfismo genetico spiega in gran parte le differenze interindividuali nella risposta ai farmaci. Con riferimento alla terapia della narcolessia, occorre premettere che la narcolessia con cataplessia è una ipersonnia del Sistema Nervoso Centrale caratterizzata da eccessiva sonnolenza diurna, cataplessia, paralisi del sonno, allucinazioni e sonno notturno disturbato. Il trattamento d’elezione per la narcolessia include stimolanti dopaminergici per la sonnolenza diurna e antidepressivi per la cataplessia, metabolizzati dal sistema P450. Peraltro, poiché studi recenti hanno attestato un’alta prevalenza di disturbi alimentari nei pazienti affetti da narcolessia con cataplessia, è stata ipotizzata una associazione tra il metabolismo ultrarapido del CYP2D6 e i disturbi alimentari. Lo scopo di questa ricerca è di caratterizzare il polimorfismo dei geni CYP2D6, CYP2C9, CYP2C19, CYP3A4, CYP3A5 e ABCB1 coinvolti nel metabolismo e nel trasporto dei farmaci in un campione di 108 pazienti affetti da narcolessia con cataplessia, e valutare il fenotipo metabolizzatore in un sottogruppo di pazienti che mostrano un profilo psicopatologico concordante con la presenza di disturbi alimentari. I risultati hanno mostrato che il fenotipo ultrarapido del CYP2D6 non correla in maniera statisticamente significativa con i disturbi alimentari, di conseguenza il profilo psicopatologico rilevato per questo sottogruppo di pazienti potrebbe essere parte integrante del fenotipo sintomatologico della malattia. I risultati della tipizzazione di tutti i geni analizzati mostrano un’alta frequenza di pazienti con metabolismo intermedio, elemento potenzialmente in grado di influire sulla risposta terapeutica soprattutto in caso di regime politerapico, come nel trattamento della narcolessia. In conclusione, sarebbe auspicabile l’esecuzione del test farmacogenetico in pazienti affetti da narcolessia con cataplessia.
Resumo:
La tesi indaga i temi fondamentali, i limiti e le implicazioni della relazione tra le filosofie di Nietzsche e di Spinoza, sia analizzando storiograficamente il ruolo di Spinoza nei testi di Nietzsche (I parte), sia sviluppando una proposta teoretica a partire dai due autori (II, III e IV parte). L’indagine storiografica procede presentando le riflessioni che Nietzsche dedica a Spinoza secondo un criterio tematico-cronologico. Durante l’esposizione sono discusse le fonti utilizzate da Nietzsche e il significato che le menzioni di Spinoza ricoprono nell’economia generale del pensiero nietzschiano. La seconda parte della ricerca indaga le ragioni per le quali la connessione tra Nietzsche e Spinoza può risultare teoreticamente convincente, in particolare a partire dall’istanza propriamente critica della loro riflessione, che si manifesta come domanda “empia” sul mondo delle credenze condivise. In particolare, è la nozione di “causa” a fungere da rifugio per la credenza metafisica nel soggetto anche all’interno dell’universo deterministico in cui opera la scienza. Come va invece pensato un determinismo che sia filosoficamente coerente? Le ultime due parti di questa ricerca sviluppano alcune ipotesi in proposito, considerando singolarmente le filosofie di Spinoza e di Nietzsche.
Resumo:
Il vocabolario del potere fra intento etico-morale e tutela sociale. I lemmi dei Capitolari Carolingi nel Regnum Italicum (774-813), costituisce il risultato di una ricerca condotta sul lessico della legislazione carolingia promulgata per il Regno Italico dal momento della conquista dei Franchi sino alla morte di Carlomagno. L’analisi ha preso in esame tutti i lemmi, soprattutto sostantivi e aggettivi, riconducibili alla sfera etica e morale, e alla concezione della libertà della persona. Il lavoro si è giovato delle analisi più specifiche in merito ai concetti giuridico-istituzionali che fonti normative come quelle prese in esame portano inevitabilmente in primo piano. La ricerca, partita da una completa catalogazione dei lemmi, si è concentrata su quelli che maggiormente consentissero di valutare le interazioni fra la corte intellettuale dei primi carolingi – formata come noto da uomini di chiesa – e le caratteristiche di pensiero di quegli uomini, un pensiero sociale e istituzionale insieme. Il lavoro ha analizzato un lessico specifico per indagare come la concezione tradizionale della societas Christiana si esprimesse nella legislazione attraverso lemmi ed espressioni formulari peculiari: la scelta di questi da parte del Rex e della sua cerchia avrebbe indicato alla collettività una pacifica convivenza e definito contestualmente “l’intento ordinatore e pacificatore” del sovrano. L’analisi è stata condotta su un periodo breve ma assai significativo – un momento di frattura politica importante – per cogliere, proprio sfruttando la sovrapposizione e talvolta lo scontro fra i diversi usi di cancelleria del regno longobardo prima e carolingio poi, la volontarietà o meno da parte dei sovrani nell’uso di un lessico specifico. Questo diventa il problema centrale della tesi: tale lessico impone con la sua continuità d’uso modelli politici o invece è proprio un uso consapevole e strumentale di un determinato apparato lessicale che intende imporre alla società nuovi modelli di convivenza?
Resumo:
From several researchers it appears that Italian adolescents and young people are grown up with commercial television which is accused to contain too much violence, sex, reality shows, advertising, cartoons which are watched from 1 to 4 hours daily. Adolescents are also great users of mobile phones and spend a lot of time to use it. Their academic results are below the average of Ocse States. However the widespread use of communication technology and social networks display also another side of adolescents who engage in media activism and political movement such as Ammazzateci tutti!, Indymedia, Movimento 5 Stelle, Movimento No Tav. In which way does the world economic crisis -with the specific problems of Italy as the cutting founds for school, academic research and welfare, the corruption of political class, mafia and camorra organisation induce a reaction in our adolescents and young people? Several researches inform us about their use of internet in terms of spending time but, more important, how internet, and the web 2.0, could be an instrument for their reaction? What do they do online? How they do it? Which is the meaning of their presence online? And, has their online activity a continuity offline? The research aims are: 1. Trough a participant observation of Social Network profiles opened by 10 young active citizens, I would seek to understand which kind of social or political activities they engage in online as individuals and which is the meaning of their presence online. 2. To observe and understand if adolescents and young people have a continuity of their socio-political engagement online in offline activities and which kind of experiences it is. 3. Try to comprehend which was (or which were) the significant, learning experiences that convinced them about the potential of the web as tool for their activism.
Resumo:
Il presente studio si colloca nell’ambito di una ricerca il cui obiettivo è la formulazione di criteri progettuali finalizzati alla ottimizzazione delle prestazioni energetiche delle cantine di aziende vitivinicole con dimensioni produttive medio-piccole. Nello specifico la ricerca si pone l’obiettivo di individuare degli indicatori che possano valutare l’influenza che le principali variabili progettuali hanno sul fabbisogno energetico dell’edificio e sull’andamento delle temperature all’interno dei locali di conservazione ed invecchiamento del vino. Tali indicatori forniscono informazioni sulla prestazione energetica dell’edificio e sull’idoneità dei locali non climatizzati finalizzata alla conservazione del vino Essendo la progettazione una complessa attività multidisciplinare, la ricerca ha previsto l’ideazione di un programma di calcolo in grado di gestire ed elaborare dati provenienti da diversi ambiti (ingegneristici, architettonici, delle produzioni agroindustriali, ecc.), e di restituire risultati sintetici attraverso indicatori allo scopo individuati. Il programma è stato applicato su un caso-studio aziendale rappresentativo del settore produttivo. Sono stati vagliati gli effetti di due modalità di vendemmia e di quattro soluzioni architettoniche differenti. Le soluzioni edilizie derivano dalla combinazione di diversi isolamenti termici e dalla presenza o meno di locali interrati. Per le analisi sul caso-studio ci si è avvalsi di simulazioni energetiche in regime dinamico, supportate e validate da campagne di monitoraggio termico e meteorologico all’interno dell’azienda oggetto di studio. I risultati ottenuti hanno evidenziato come il programma di calcolo concepito nell’ambito di questo studio individui le criticità dell’edificio in termini energetici e di “benessere termico” del vino e consenta una iterativa revisione delle variabili progettuale indagate. Esso quindi risulta essere uno strumento informatizzato di valutazione a supporto della progettazione, finalizzato ad una ottimizzazione del processo progettuale in grado di coniugare, in maniera integrata, gli obiettivi della qualità del prodotto, della efficienza produttiva e della sostenibilità economica ed ambientale.
Resumo:
La memoria pubblica della Sho'ah è inscritta in una quantità proliferante di immagini e spazi memoriali. Ciò è riscontrabile in modo particolare nei principali "siti dello sterminio" assurti a simbolo nel corso degli anni, mentre molti altri "luoghi di memoria" della Deportazione soffrono di una condizione di intrinseca debolezza. Essa è riconducibile in primo luogo alla fragilità del dato materiale, i cui resti ormai privi di eloquenza risultano difficili da interpretare e conservare, in secondo luogo alla sovrapposizione di memorie concorrenti venutesi a determinare in conseguenza dei riusi successivi a cui queste strutture sono spesso andate soggette dopo la guerra, infine alla difficoltà di rendere espressione compiuta alla tragedia della Deportazione. Il caso del campo di Fossoli è paradigmatico: esso interroga la capacità del progetto di "dare forma" al palinsesto delle memorie, rendendo possibile il riconoscimento ed esplicitando una significazione delle tracce, senza aggiungere ulteriori interpretazioni. Lo spazio e il paesaggio, in quanto linguaggi indentitari, possono offrirsi come strumenti da questo punto di vista. Michel De Certeau vi fa riferimento quando afferma che lo spazio coincide con «l’effetto prodotto dalle operazioni che lo orientano, che lo circostanziano, o temporalizzano e lo fanno funzionare come unità polivalente di programmi conflittuali o di prossimità contrattuali». Lo spazio gioca un ruolo cruciale nel conformare l'esperienza del presente e allo stesso tempo nel rendere visibili le esperienze passate, compresse nella memoria collettiva. Lo scopo di questa ricerca è interrogare le potenzialità spaziali del luogo, considerate sotto il profilo culturale e semantico, come valida alternativa alla forma-monumento nella costruzione di una o più narrazioni pertinenti della memoria.
Resumo:
La tesi approfondisce lo studio dello spazio pubblico attraverso l’esperienza percettiva dell’osservatore. Si basa sul pensiero di Camillo Sitte, Kevin Lynch e Aldo Rossi sulla leggibilità dell’architettura, e permette di individuare una serie di strumenti analitici per la lettura dello spazio urbano. Ritenendo che una sfida dell’architettura sia la capacità di essere compresa da ogni osservatore attraverso le sue forme e gli spazi che costruisce, scopo ultimo di questa ricerca è di decodificare, per quanto possibile, alcuni macro archetipi di questo sistema. L’obiettivo è offrire una serie di principi utili ad un progetto dello spazio pubblico urbano in grado di rispondere con una elevata qualità spaziale alle esigenze dell'uomo contemporaneo.
Resumo:
Con questa tesi di laurea si muovono i primi passi di una ricerca applicata finalizzata alla costruzione-deposizione di materiale da parte di sciami di mini-robot dal comportamento indipendente che si coordinano tramite segnali lasciati e rilevati nell’ambiente in cui si muovono. Lo sviluppo di tecniche di progettazione e fabbricazione digitale ha prodotto un aumento nel grado di interconnessione tra tecnologia e design, dunque, di nuove possibilità tettoniche. Le relazioni tettoniche tradizionali stanno infatti subendo una trasformazione radicale, potendo essere esplicitamente informate e dunque mediate attraverso gli strumenti digitali dall’ideazione alla produzione. Questa mediazione informata del contenuto tettonico (che opera costantemente) è distintivo di un approccio material-based alla progettazione che aumenta l’integrazione tra struttura, materia e forma entro le tecnologie di fabbricazione (R.Oxman). Dei numerosi processi di fabbricazione per l’architettura che si servono di tecnologia robotica, pochi sono capaci di superare la logica gerarchica, rigida e lineare-sequenziale che serve di fatto agli obiettivi di automazione ed ottimizzazione. La distribuzione di forme di intelligenza semplificata ad un numero elevato di unità robot è quindi qui proposta come alternativa al modello appena descritto. Incorporando semplici decisioni di carattere architettonico negli agenti-robot che costituiscono il sistema distribuito di entità autonome, la loro interazione e le decisioni prese individualmente producono comportamento collettivo e l’integrazione delle suddette relazioni tettoniche. Nello sviluppo del progetto, si è fatto così riferimento a modelli comportamentali collettivi (di sciame) osservabili in specie comunitarie che organizzano strutture materiali -come termiti e vespe- ed in organismi semplici -come le muffe cellulari della specie Physarum polycephalum. Per queste specie biologiche il processo di costruzione non dipende da un ‘piano generale’ ma è guidato esclusivamente da azioni dei singoli individui che comunicano lasciando tracce chimiche nell’ambiente e modificano il loro comportamento rilevando le tracce lasciate dagli altri individui. A questo scopo, oltre alle simulazioni in digitale, è stato indispensabile sviluppare dei prototipi funzionali di tipo fisico, ovvero la realizzazione di mini-robot dal movimento indipendente, in grado di coordinarsi tra loro tramite segnali lasciati nell’ambiente e capaci di depositare materiale.
Resumo:
Negli anni la funzione dei social network è cambiata molte volte. Alle origini i social network erano uno strumento di connessione tra amici, ora sono siti internet in cui le persone mettono informazioni e quando un social network ha milioni di utenti, diventa un’incredibile sorgente di dati. Twitter è uno dei siti internet più visitati, e viene descritto come “the SMS of internet”, perchè è un social network che permette ai suoi utenti di inviare e leggere messaggi corti, di 140 caratteri, chiamati “tweets”. Con il passare del tempo Twitter `e diventato una fonte fondamentale di notizie. Il suo grande numero di utenti permette alle notizie di espandersi nella rete in modo virale. Molte persone hanno cercato di analizzare il potere dei tweet, come il contenuto positivo o negativo, mentre altri hanno cercato di capire se avessero un potere predittivo. In particolare nel mondo finanziario, sono state avviate molte ricerche per verificare l’esistenza di una effettiva correlazione tra i tweets e la fluttuazione del mercato azionario. L’effettiva presenza di tale relazione unita a un modello predittivo, potrebbe portare allo sviluppo di un modello che analizzando i tweets presenti nella rete, relativi a un titolo azionario, dia informazioni sulle future variazioni del titolo stesso. La nostra attenzione si è rivolata alla ricerca e validazione statistica di tale correlazione. Sono stati effettuati test su singole azioni, sulla base dei dati disponibili, poi estesi a tutto il dataset per vedere la tendenza generale e attribuire maggior valore al risultato. Questa ricerca è caratterizzata dal suo dataset di tweet che analizza un periodo di oltre 2 anni, uno dei periodi più lunghi mai analizzati. Si è cercato di fornire maggior valore ai risultati trovati tramite l’utilizzo di validazioni statistiche, come il “permutation test”, per validare la relazione tra tweets di un titolo con i relativi valori azionari, la rimozione di una percentuale di eventi importanti, per mostrare la dipendenza o indipendenza dei dati dagli eventi più evidenti dell’anno e il “granger causality test”, per capire la direzione di una previsione tra serie. Sono stati effettuati anche test con risultati fallimentari, dai quali si sono ricavate le direzioni per i futuri sviluppi di questa ricerca.
Resumo:
L’interazione spin-orbita (SOI) nel grafene è attualmente oggetto di intensa ricerca grazie alla recente scoperta di una nuova classe di materiali chiamati isolanti topologici. Questi materiali, la cui esistenza è strettamente legata alla presenza di una forte SOI, sono caratterizzati dall’interessante proprietà di avere un bulk isolante ed allo stesso tempo superfici conduttrici. La scoperta teorica degli isolanti topologici la si deve ad un lavoro nato con l’intento di studiare l’influenza dell’interazione spin-orbita sulle proprietà del grafene. Poichè questa interazione nel grafene è però intrinsecamente troppo piccola, non è mai stato possibile effettuare verifiche sperimentali. Per questa ragione, vari lavori di ricerca hanno recentemente proposto tecniche volte ad aumentare questa interazione. Sebbene alcuni di questi studi abbiano mostrato un effettivo aumento dell’interazione spin-orbita rispetto al piccolo valore intrinseco, sfortunatamente hanno anche evidenziato una consistente riduzione della qualità del grafene. L’obbiettivo che ci si pone in questa tesi è di determinare se sia possibile aumentare l’interazione spin-orbita nel grafene preservandone allo stesso tempo le qualità. La soluzione proposta in questo lavoro si basa sull’utilizzo di due materiali semiconduttori, diselenio di tungsteno WSe2 e solfuro di molibdeno MoS2, utilizzati da substrato su cui sopra verrà posizionato il grafene formando così un’eterostruttura -nota anche di “van der Waal” (vdW)-. Il motivo di questa scelta è dovuto al fatto che questi materiali, appartenenti alla famiglia dei metalli di transizione dicalcogenuri (TMDS), mostrano una struttura reticolare simile a quella del grafene, rendendoli ideali per formare eterostrutture e ancora più importante, presentano una SOI estremamente grande. Sostanzialmente l’idea è quindi di sfruttare questa grande interazione spin-orbita del substrato per indurla nel grafene aumentandone così il suo piccolo valore intrinseco.
Resumo:
Negli ultimi anni i modelli VAR sono diventati il principale strumento econometrico per verificare se può esistere una relazione tra le variabili e per valutare gli effetti delle politiche economiche. Questa tesi studia tre diversi approcci di identificazione a partire dai modelli VAR in forma ridotta (tra cui periodo di campionamento, set di variabili endogene, termini deterministici). Usiamo nel caso di modelli VAR il test di Causalità di Granger per verificare la capacità di una variabile di prevedere un altra, nel caso di cointegrazione usiamo modelli VECM per stimare congiuntamente i coefficienti di lungo periodo ed i coefficienti di breve periodo e nel caso di piccoli set di dati e problemi di overfitting usiamo modelli VAR bayesiani con funzioni di risposta di impulso e decomposizione della varianza, per analizzare l'effetto degli shock sulle variabili macroeconomiche. A tale scopo, gli studi empirici sono effettuati utilizzando serie storiche di dati specifici e formulando diverse ipotesi. Sono stati utilizzati tre modelli VAR: in primis per studiare le decisioni di politica monetaria e discriminare tra le varie teorie post-keynesiane sulla politica monetaria ed in particolare sulla cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015) e regola del GDP nominale in Area Euro (paper 1); secondo per estendere l'evidenza dell'ipotesi di endogeneità della moneta valutando gli effetti della cartolarizzazione delle banche sul meccanismo di trasmissione della politica monetaria negli Stati Uniti (paper 2); terzo per valutare gli effetti dell'invecchiamento sulla spesa sanitaria in Italia in termini di implicazioni di politiche economiche (paper 3). La tesi è introdotta dal capitolo 1 in cui si delinea il contesto, la motivazione e lo scopo di questa ricerca, mentre la struttura e la sintesi, così come i principali risultati, sono descritti nei rimanenti capitoli. Nel capitolo 2 sono esaminati, utilizzando un modello VAR in differenze prime con dati trimestrali della zona Euro, se le decisioni in materia di politica monetaria possono essere interpretate in termini di una "regola di politica monetaria", con specifico riferimento alla cosiddetta "nominal GDP targeting rule" (McCallum 1988 Hall e Mankiw 1994; Woodford 2012). I risultati evidenziano una relazione causale che va dallo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo alle variazioni dei tassi di interesse di mercato a tre mesi. La stessa analisi non sembra confermare l'esistenza di una relazione causale significativa inversa dalla variazione del tasso di interesse di mercato allo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo. Risultati simili sono stati ottenuti sostituendo il tasso di interesse di mercato con il tasso di interesse di rifinanziamento della BCE. Questa conferma di una sola delle due direzioni di causalità non supporta un'interpretazione della politica monetaria basata sulla nominal GDP targeting rule e dà adito a dubbi in termini più generali per l'applicabilità della regola di Taylor e tutte le regole convenzionali della politica monetaria per il caso in questione. I risultati appaiono invece essere più in linea con altri approcci possibili, come quelli basati su alcune analisi post-keynesiane e marxiste della teoria monetaria e più in particolare la cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015). Queste linee di ricerca contestano la tesi semplicistica che l'ambito della politica monetaria consiste nella stabilizzazione dell'inflazione, del PIL reale o del reddito nominale intorno ad un livello "naturale equilibrio". Piuttosto, essi suggeriscono che le banche centrali in realtà seguono uno scopo più complesso, che è il regolamento del sistema finanziario, con particolare riferimento ai rapporti tra creditori e debitori e la relativa solvibilità delle unità economiche. Il capitolo 3 analizza l’offerta di prestiti considerando l’endogeneità della moneta derivante dall'attività di cartolarizzazione delle banche nel corso del periodo 1999-2012. Anche se gran parte della letteratura indaga sulla endogenità dell'offerta di moneta, questo approccio è stato adottato raramente per indagare la endogeneità della moneta nel breve e lungo termine con uno studio degli Stati Uniti durante le due crisi principali: scoppio della bolla dot-com (1998-1999) e la crisi dei mutui sub-prime (2008-2009). In particolare, si considerano gli effetti dell'innovazione finanziaria sul canale dei prestiti utilizzando la serie dei prestiti aggiustata per la cartolarizzazione al fine di verificare se il sistema bancario americano è stimolato a ricercare fonti più economiche di finanziamento come la cartolarizzazione, in caso di politica monetaria restrittiva (Altunbas et al., 2009). L'analisi si basa sull'aggregato monetario M1 ed M2. Utilizzando modelli VECM, esaminiamo una relazione di lungo periodo tra le variabili in livello e valutiamo gli effetti dell’offerta di moneta analizzando quanto la politica monetaria influisce sulle deviazioni di breve periodo dalla relazione di lungo periodo. I risultati mostrano che la cartolarizzazione influenza l'impatto dei prestiti su M1 ed M2. Ciò implica che l'offerta di moneta è endogena confermando l'approccio strutturalista ed evidenziando che gli agenti economici sono motivati ad aumentare la cartolarizzazione per una preventiva copertura contro shock di politica monetaria. Il capitolo 4 indaga il rapporto tra spesa pro capite sanitaria, PIL pro capite, indice di vecchiaia ed aspettativa di vita in Italia nel periodo 1990-2013, utilizzando i modelli VAR bayesiani e dati annuali estratti dalla banca dati OCSE ed Eurostat. Le funzioni di risposta d'impulso e la scomposizione della varianza evidenziano una relazione positiva: dal PIL pro capite alla spesa pro capite sanitaria, dalla speranza di vita alla spesa sanitaria, e dall'indice di invecchiamento alla spesa pro capite sanitaria. L'impatto dell'invecchiamento sulla spesa sanitaria è più significativo rispetto alle altre variabili. Nel complesso, i nostri risultati suggeriscono che le disabilità strettamente connesse all'invecchiamento possono essere il driver principale della spesa sanitaria nel breve-medio periodo. Una buona gestione della sanità contribuisce a migliorare il benessere del paziente, senza aumentare la spesa sanitaria totale. Tuttavia, le politiche che migliorano lo stato di salute delle persone anziane potrebbe essere necessarie per una più bassa domanda pro capite dei servizi sanitari e sociali.
Resumo:
Lo studio si occupa di fluency e analizza alcuni aspetti che la definiscono (pause vuote, pause piene, segnali discorsivi, riformulazioni). Si analizzano frequenza e durata di tali fenomeni, attraverso due corpora di produzioni orali di due gruppi di parlanti della lingua inglese: gli studenti italiani del corso di Mediazione Linguistica Interculturale della Scuola di Lingue, Letterature, Interpretazione e Traduzione di Forlì, Università di Bologna, e partecipanti britannici di un programma radiofonico. Si è ritenuto utile comparare le produzioni orali di studenti della lingua inglese a quelle di oratori pubblici madrelingua. Si è cercato di bilanciare i due corpora in termini di genere. Sono stati utilzzati i software Praat, per identificare la morfologia e la durata delle variabili, e Notetab Light, per l'annotazione dei corpora. I risultati della ricerca mostrano che le differenze maggiori tra i due gruppi risiedono nella durata delle pause vuote e nella frequenza, durata e e varietà di suoni delle pause piene, oltre a sillabe aggiuntive, sillabe allungate e riformulazioni. Le sillabe aggiuntive appaiono tipiche della produzione orale degli studenti italiani, in quanto, per la maggior parte, le parole della lingua italiana terminano con un suono vocalico. E' inoltre emersa una questione di genere. Le parlanti di sesso femminile, in entrambi i corpora, impiegano maggiormente le variabili della fluency prese in esame, rispetto ai parlanti di sesso maschile. Sulla base di questa ricerca e ricerche future si potranno ideare moduli di insegnamento dell'inglese basati sulla fluency come fattore primario di competenza linguistica. Il Capitolo 1 introduce lo studio. Il Capitolo 2 presenta lo stato dell'arte sul tema. Il Capitolo 3 presenta la metodologia dello studio. Il Capitolo 4 è dedicato a illustrare e discutere i risultati della ricerca. Il Capitolo 5 presenta considerazioni conclusive e future prospettive per l'insegnamento dell'inglese e per la ricerca.
Resumo:
Lo scopo di questa ricerca di dottorato è stato lo studio di una forma di dosaggio flessibile e personalizzabile, indirizzata alle necessità individuali di ogni paziente, per il trattamento dell’iperplasia prostatica benigna. La terapia proposta prevede l’utilizzo di due farmaci, un alfa bloccante (farmaco A) e un inibitore delle 5- fosfodiesterasi (farmaco B) e, somministrati in una singola forma di dosaggio contenenti differenti dosi e combinazioni dei due farmaci. Lo sviluppo di un sistema di rilascio per la somministrazione orale di farmaco A e farmaco B è stato realizzato grazie alla tecnologia Dome Matrix. La tecnologia si basa sull’assemblaggio di moduli utilizzati come elementi di controllo del rilascio. L’assemblaggio dei moduli può essere ottenuto attraverso diverse configurazioni. Sono stati quindi realizzati sistemi assemblati in grado di galleggiare sul contenuto gastrico; la prolungata permanenza della forma farmaceutica nello stomaco favorisce la solubilizzazione dei due principi attivi che quindi potrebbero raggiungere il sito di assorbimento nel primo tratto intestinale già in dispersione molecolare, condizione ideale per essere assorbiti. La prima parte della ricerca è stata focalizzata sulla realizzazione di un sistema assemblato a rilascio modificato di farmaco A. Moduli contenenti diversi dosaggi di farmaco sono stati assemblati in varie configurazioni e dosi differenti per ottenere una forma di dosaggio flessibile, adattabile alle esigenze terapeutiche del paziente. La seconda parte del lavoro di tesi ha riguardato la realizzazione di un sistema assemblato, contenente entrambi i farmaci in associazione. L’ultima parte della ricerca è stata svolta presso la “University of Texas at Austin” sotto la supervisione del Professor Nicholas Peppas. Il lavoro svolto è stato focalizzato sullo studio delle caratteristiche di rigonfiamento dei singoli moduli di farmaco e dei loro sistemi assemblati; il comportamento di tali sistemi è stato investigato anche grazie all’utilizzo della tecnica di tomografia computerizzata a raggi X.
Resumo:
Il traguardo più importante per la connettività wireless del futuro sarà sfruttare appieno le potenzialità offerte da tutte le interfacce di rete dei dispositivi mobili. Per questo motivo con ogni probabilità il multihoming sarà un requisito obbligatorio per quelle applicazioni che puntano a fornire la migliore esperienza utente nel loro utilizzo. Sinteticamente è possibile definire il multihoming come quel processo complesso per cui un end-host o un end-site ha molteplici punti di aggancio alla rete. Nella pratica, tuttavia, il multihoming si è rivelato difficile da implementare e ancor di più da ottimizzare. Ad oggi infatti, il multihoming è lontano dall’essere considerato una feature standard nel network deployment nonostante anni di ricerche e di sviluppo nel settore, poiché il relativo supporto da parte dei protocolli è quasi sempre del tutto inadeguato. Naturalmente anche per Android in quanto piattaforma mobile più usata al mondo, è di fondamentale importanza supportare il multihoming per ampliare lo spettro delle funzionalità offerte ai propri utenti. Dunque alla luce di ciò, in questa tesi espongo lo stato dell’arte del supporto al multihoming in Android mettendo a confronto diversi protocolli di rete e testando la soluzione che sembra essere in assoluto la più promettente: LISP. Esaminato lo stato dell’arte dei protocolli con supporto al multihoming e l’architettura software di LISPmob per Android, l’obiettivo operativo principale di questa ricerca è duplice: a) testare il roaming seamless tra le varie interfacce di rete di un dispositivo Android, il che è appunto uno degli obiettivi del multihoming, attraverso LISPmob; e b) effettuare un ampio numero di test al fine di ottenere attraverso dati sperimentali alcuni importanti parametri relativi alle performance di LISP per capire quanto è realistica la possibilità da parte dell’utente finale di usarlo come efficace soluzione multihoming.
Resumo:
Il monopolio statale si rompe in Italia già nel 1976 e le piccole antenne private sono nate come funghi. Talvolta gli studiosi hanno ipotizzato che questo settore radiofonico fiorisca e sia in continua crescita in Italia, comparato particolarmente alla situazione finlandese. Tra i radioascoltatori internazionali l'Italia è considerata il paradiso delle antenne locali per la gran quantità degli impianti radiofonici in ambito locale. Si ipotizza anche che la gran quantità delle stazioni di radio garantisca automaticamente l'obiettività dell'informazione, o almeno la polifonia della radio. Invece in Finlandia lo Stato ha limitato il diritto di impiantare una stazione radio e il numero delle stazioni in rete con una legge abbastanza rigida a livello europeo per controllare la privatizzazione del settore e la diffusione della nuova ideologia di radiofonia libera. Con la mia ricerca vorrei affermare la correttezza di tali ipotesi e, allo stesso tempo, verificare se l'Italia sia tuttora un paradiso di radiofonia locale. Uno degli scopi di questa ricerca è far capire che la formazione e la struttura del campo radiofonico dipende spesso della società intorno a sé. Dal momento che l'analisi si basa parzialmente sui metodi quantitativi, diamo un'occhiata ai numeri delle stazioni statali, reti nazionali e seminazionali e radio locali e provinciali nella provincia di Parma e in Finlandia Propria. Inoltre in questa tesi di laurea vorrei ricercare quali potrebbero essere i motivi storici, legislativi, culturali ed economici che hanno influito sul precoce sviluppo italiano nel campo della radiofonia locale. Per dare una più ampia visione della situazione italiana, ho fatto delle osservazioni sulla struttura del campo radiofonico in questi due paesi, sulle differenze essenziali tra Finlandia e Italia e sui motivi che influiscono nella nascita della radiofonia privata in ambito locale paragonando i fatti italiani con quelli finlandesi. Questa ricerca può dare un contributo importante agli appassionati del radioascolto ed essere utile come inizio di una più vasta valutazione di radiofonia locale per coloro che sono interessati ai mass media come mezzi di comunicazione, di potere e di democrazia. Contrariamente agli articoli anteriori e alle ricerche fatte, ormai la radiofonia provinciale non ha più molta importanza in Italia. Possiamo dire che non ci sia più un modello italiano da ammirare, perché le reti nazionali dominano le frequenze e raccolgono ormai un pubblico di dimensioni ragguardevoli e in continua crescita. Anche se il numero delle emittenti locali è diminuito notevolmente nella provincia di Parma, non possiamo concludere che la radiofonia locale in Italia sia morta basandosi su una sola ricerca che riguarda il cambiamento della struttura radiofonica in una località italiana.