974 resultados para pacemaker, defibrillatore, cuore, evoluzione, dispositivi
Resumo:
La Tesi analizza le relazioni tra i processi di sviluppo agricolo e l’uso delle risorse naturali, in particolare di quelle energetiche, a livello internazionale (paesi in via di sviluppo e sviluppati), nazionale (Italia), regionale (Emilia Romagna) e aziendale, con lo scopo di valutare l’eco-efficienza dei processi di sviluppo agricolo, la sua evoluzione nel tempo e le principali dinamiche in relazione anche ai problemi di dipendenza dalle risorse fossili, della sicurezza alimentare, della sostituzione tra superfici agricole dedicate all’alimentazione umana ed animale. Per i due casi studio a livello macroeconomico è stata adottata la metodologia denominata “SUMMA” SUstainability Multi-method, multi-scale Assessment (Ulgiati et al., 2006), che integra una serie di categorie d’impatto dell’analisi del ciclo di vita, LCA, valutazioni costi-benefici e la prospettiva di analisi globale della contabilità emergetica. L’analisi su larga scala è stata ulteriormente arricchita da un caso studio sulla scala locale, di una fattoria produttrice di latte e di energia elettrica rinnovabile (fotovoltaico e biogas). Lo studio condotto mediante LCA e valutazione contingente ha valutato gli effetti ambientali, economici e sociali di scenari di riduzione della dipendenza dalle fonti fossili. I casi studio a livello macroeconomico dimostrano che, nonostante le politiche di supporto all’aumento di efficienza e a forme di produzione “verdi”, l’agricoltura a livello globale continua ad evolvere con un aumento della sua dipendenza dalle fonti energetiche fossili. I primi effetti delle politiche agricole comunitarie verso una maggiore sostenibilità sembrano tuttavia intravedersi per i Paesi Europei. Nel complesso la energy footprint si mantiene alta poiché la meccanizzazione continua dei processi agricoli deve necessariamente attingere da fonti energetiche sostitutive al lavoro umano. Le terre agricole diminuiscono nei paesi europei analizzati e in Italia aumentando i rischi d’insicurezza alimentare giacché la popolazione nazionale sta invece aumentando.
Resumo:
Per la tradizione amministrativa la concessione è lo strumento che consente ai singoli di utilizzare un bene pubblico a titolo particolare. Proprio l’endiadi espressa dai due aggettivi della definizione tradizionale, pubblico e particolare, nasconde la ragione della fortuna dello strumento concessorio, capace di soddisfare, allo stesso tempo, un’esigenza di carattere pubblico ed un bisogno eminentemente privato, sopravvivendo ai più differenti periodi storici ed all’affermarsi delle più radicali correnti di pensiero. A fare da sfondo a questa insanabile tensione, in perenne oscillazione tra i due poli estremi della definizione, la nozione, a sua volta relativa, discussa e costantemente rivisitata, di bene pubblico. Per questa ragione il titolo del lavoro che si presenta è articolato in tre segmenti, che fanno riferimento allo strumento, soltanto formalmente unitario, della concessione negli ambiti del demanio marittimo, del demanio costiero e del demanio portuale. Nel primo capitolo si esamina la disciplina normativa applicabile alle varie tipologie di concessione ipotizzabili sul demanio marittimo, cercando di cogliere, in una prospettiva di analisi diacronica, le linee di evoluzione dell’uso particolare dei beni variamente connessi alle esigenze della navigazione. Il secondo capitolo è, invece, dedicato all’esame dell’elaborazione giurisprudenziale relativa alle vicende del demanio marittimo. Mentre nel terzo capitolo, infine, si è tentato di ricercare e di rappresentare una teoria unitaria della concessione dovuta, in gran parte, all’incedere, apparentemente irresistibile, di un vocabolario comune dei contratti pubblici di matrice comunitaria. In questo contesto appare evidente la crisi, probabilmente irreversibile, della concezione di bene pubblico e quindi di concessione.
Resumo:
L'innovazione delle tecnologie di sequenziamento negli ultimi anni ha reso possibile la catalogazione delle varianti genetiche nei campioni umani, portando nuove scoperte e comprensioni nella ricerca medica, farmaceutica, dell'evoluzione e negli studi sulla popolazione. La quantità di sequenze prodotta è molto cospicua, e per giungere all'identificazione delle varianti sono necessari diversi stadi di elaborazione delle informazioni genetiche in cui, ad ogni passo, vengono generate ulteriori informazioni. Insieme a questa immensa accumulazione di dati, è nata la necessità da parte della comunità scientifica di organizzare i dati in repository, dapprima solo per condividere i risultati delle ricerche, poi per permettere studi statistici direttamente sui dati genetici. Gli studi su larga scala coinvolgono quantità di dati nell'ordine dei petabyte, il cui mantenimento continua a rappresentare una sfida per le infrastrutture. Per la varietà e la quantità di dati prodotti, i database giocano un ruolo di primaria importanza in questa sfida. Modelli e organizzazione dei dati in questo campo possono fare la differenza non soltanto per la scalabilità, ma anche e soprattutto per la predisposizione al data mining. Infatti, la memorizzazione di questi dati in file con formati quasi-standard, la dimensione di questi file, e i requisiti computazionali richiesti, rendono difficile la scrittura di software di analisi efficienti e scoraggiano studi su larga scala e su dati eterogenei. Prima di progettare il database si è perciò studiata l’evoluzione, negli ultimi vent’anni, dei formati quasi-standard per i flat file biologici, contenenti metadati eterogenei e sequenze nucleotidiche vere e proprie, con record privi di relazioni strutturali. Recentemente questa evoluzione è culminata nell’utilizzo dello standard XML, ma i flat file delimitati continuano a essere gli standard più supportati da tools e piattaforme online. È seguita poi un’analisi dell’organizzazione interna dei dati per i database biologici pubblici. Queste basi di dati contengono geni, varianti genetiche, strutture proteiche, ontologie fenotipiche, relazioni tra malattie e geni, relazioni tra farmaci e geni. Tra i database pubblici studiati rientrano OMIM, Entrez, KEGG, UniProt, GO. L'obiettivo principale nello studio e nella modellazione del database genetico è stato quello di strutturare i dati in modo da integrare insieme i dati eterogenei prodotti e rendere computazionalmente possibili i processi di data mining. La scelta di tecnologia Hadoop/MapReduce risulta in questo caso particolarmente incisiva, per la scalabilità garantita e per l’efficienza nelle analisi statistiche più complesse e parallele, come quelle riguardanti le varianti alleliche multi-locus.
Resumo:
L'obiettivo di questa tesi è stato quello di implementare un applicazione client-server per dispositivi Android basato sul paradigma del crowdsourcing. Il focus è stato rivolto sulla ricerca di un modo che consentisse all'utente di notificare degli eventi stradali senza distrarlo dalla guida, consentendogli di interagire vocalmente con il dispositivo per la segnalazione di differenti notifiche. Viene implementa un sistema di rilevazione delle velocità delle strade tramite l'invio di dati anonimi da parte degli utenti, che si integra con il sistema di notifica, consentendo una migliore rappresentazione della viabilità stradale. Inoltre è stato implementato anche un navigatore satellitare con tecnologia turn-by-turn da cui gli utenti possono effettuare itinerari, configurandosi, in ultima analisi, come una strumento in grado di supportare gli automobilisti da più punti di vista.
Resumo:
Con l’avvento di Internet, potentissimo strumento tecnologico di diffusione di informazioni e di comunicazione a distanza, anche le modalità di apprendimento sono cambiate: persino nelle scuole si tende a non utilizzare più i classici libri di testo, ma ad utilizzare dispositivi dai quali scaricare in formato elettronico, libri, dispense, test, video ed ogni altro genere di materiale di apprendimento, dando vita a un vero e proprio nuovo modo di apprendere chiamato E-learning, più veloce, comodo e ricco di alternative rispetto al vecchio modello offline che si presentava sottoforma di floppy inizialmente e poi di CD-ROM. E-learning significa, electronic based learning, ed è appunto una vera e propria metodologia di didattica che sfrutta e viene facilitata da risorse e servizi disponibili e accessibili virtualmente in rete. Al momento vi sono numerose piattaforme di E-learning, una delle quali è il nucleo di questa tesi, ovvero il tool autore AContent. Questo documento di tesi, infatti, raccoglie la descrizione della progettazione e della fase implementativa della gestione delle politiche di copyright per il tool AContent. L’obbiettivo è quello di rendere possibile l’assegnazione di un copyright a qualsiasi tipo di materiale didattico venga creato, caricato e/o condiviso sulla piattaforma in questione. Pertanto l’idea è stata quella di dare la possibilità di scegliere fra più copyright preimpostati, utilizzando degli standard di licenze riguardanti i diritti d’autore, lasciando anche l’opportunità di inserire la propria politica.
Resumo:
Il lavoro di questa tesi si pone l'obbiettivo di realizzare un'applicazione, per dispositivi Android, di un'ipotetica agenzia immobiliare dal nome “FoundHouse” con alcuni edifici fittizi completi di tutte le informazioni fondamentali a caratterizzarli (immagini, nome, città, località, descrizione, prezzi).
Resumo:
Si riassumono le principali proprietà e applicazioni di dispositivi basati su nanofili. Si descrivono le tecniche utilizzate in laboratorio per analizzare livelli profondi in nanofili di Silicio con particolare attenzione ai concetti teorici alla base di questi metodi.
Resumo:
In questo lavoro di tesi si studiano quattro sistemi precipitanti di carattere principalmente convettivo che hanno interessato la regione Emilia-Romagna tra la primavera 2012 e l'inverno 2013. Si fornisce una trattazione che prevede l'utilizzo di due strumenti basati sulla tecnologia radar: il pluviometro disdrometro a microonde PLUDIX e il radar polarimetrico in banda C di San Pietro Capofiume (SPC). Gli strumenti sono posizionati ad una distanza di circa 30 km in linea d'aria. PLUDIX, situato al Consiglio Nazionale delle Ricerche (CNR) di Bologna, rileva le idrometeore al suolo e fornisce informazioni pluviometriche e disdrometriche sulla precipitazione in corso. Il radar SPC analizza echi provenienti dall'atmosfera circostante, fino alla distanza di 112.5 km e all'elevazione di 13° rispetto a terra. Si confrontano i profili temporali di intensità di precipitazione ottenuti da PLUDIX con quelli ricavati dalle variabili polarimetriche radar, che permettono di meglio interpretare l'evoluzione temporale degli eventi. Si procede, inoltre, alla classificazione delle idrometeore in atmosfera. A tal fine si implementa un algoritmo di classificazione polarimetrico basato sul lavoro di Park et al. (2009) e modificato in funzione della letteratura scientifica al riguardo. La classificazione di idrometeore che più interessa è quella relativa alle quote radar sulla verticale del CNR, che può essere messa a confronto con le evidenze disdrometriche da PLUDIX al suolo. I risultati sono soddisfacenti e mostrano che i due strumenti vedono gli stessi fenomeni da due punti di vista. L'analisi combinata dei dati eterogenei da PLUDIX e dal radar SPC permette di ricavare importanti informazioni sui processi fisici in nube e sull'evoluzione temporale e spaziale dei sistemi precipitanti.
Resumo:
Nel 2004 due Fisici dell’Università di Manchester, nel Regno Unito, hanno isolato per la prima volta un materiale dallo spessore di un singolo atomo: il grafene. Questo materiale, composto da un reticolo di atomi di carbonio disposti a nido d’ape, possiede interessanti proprietà chimiche e fisiche, tra le quali una elevata resistenza chimica e meccanica, un’eccellente trasporto termico ed elettrico ed una elevata trasparenza. Il crescente fermento attorno al grafene ha suscitato un forte interesse a livello europeo, al punto che il 28 gennaio di quest’anno la Comunità Europea ha approvato i due più grandi progetti di ricerca mai finanziati in Europa. Tra questi il Graphene Flagship Project (www.graphene-flagship.eu) che coinvolge oltre 120 gruppi di ricerca da 17 Stati Europei e distribuirà nei prossimi anni 1,000 milioni di euro per lo sviluppo di tecnologie e dispositivi a base grafene. Nel mio elaborato di Tesi ho seguito le ricerche del gruppo grafene dell’Istituto per la Microelettronica e i Microsistemi del Consiglio Nazionale delle Ricerche di Bologna, approfondendo il funzionamento del sistema di sintesi di questo materiale chiamato Chemical Vapour Deposition e le tecniche sperimentali che permettono il trasferimento del grafene su substrati come il silicio, ma anche materiali polimerici flessibili come il PET, per la realizzazione di elettrodi conduttivi, trasparenti per applicazioni nell’elettronica flessibile. Questa esperienza e stata molto importante per la mia formazione e mi ha dato modo di lavorare ad un soggetto di ricerca cosi attuale, importante e promettente come il grafene. Nutro personalmente grande passione e aspettativa per questo materiale e sono convinto che nel prossimo futuro la tecnologia del grafene saprà entrare nella vita quotidiana di tutti noi.
Resumo:
Dopo una breve introduzione storiografica analizzo alcuni percorsi di studio dedicati alle metodologie di detezione dei pianeti extra-solari ed approfondisco alcuni aspetti teorici legati ai fenomeni di interazione dinamica tra pianeti e stelle nel corso delle loro fasi evolutive.
Resumo:
La presente indagine mira ad esaminare, in chiave innovativa, i rapporti tra l’Europa ed un reato prettamente europeo: il negazionismo. Sviluppatosi in maniera assolutamente predominante nel nostro continente, le ragioni della sua diffusione sono molteplici. Al di là della lotta a razzismo ed antisemitismo, il motivo principale va identificato nel ruolo “fondativo” che riveste la memoria dell’Olocausto in Europa, collocata nel cuore dell’universo valoriale su cui si reggono i due principali attori europei, ovverosia l’Unione europea e la Corte europea dei diritti dell’uomo. La ricerca, dunque, ruota attorno a due poli tematici. Da un lato, sono state esaminate le politiche normative dell’Unione europea in materia di razzismo e xenofobia, entro cui spicca la promozione dell’incriminazione del negazionismo “allargato”, cioè esteso alle condotte di negazione non solo dell’Olocausto, ma anche degli altri crimini internazionali. Dall’altro lato, l’analisi della trentennale giurisprudenza della Corte di Strasburgo in materia ha evidenziato come, con riguardo alle manifestazioni negazioniste, sia stato elaborato uno “statuto speciale”, che si risolve nel perentorio diniego di tutela per questa categoria di opinioni, sottratte a monte all’ordinario giudizio di bilanciamento in quanto giudicate incompatibili con i valori sottesi alla CEDU. Lo scopo di questo lavoro riposa nel tentativo di individuare le interazioni tra questi due sistemi istituzionali, per interpretare una tendenza che converge con nettezza verso un incremento della repressione penale della parola. Da questo complesso intreccio di norme e principi, di hard law e soft law, sarà possibile enucleare la natura giuridica ed il contenuto delle richieste di incriminazione rivolte agli Stati membri. Una volta appurato che agli Stati è concesso di restringere il campo di applicazione del reato di negazionismo, adottando degli indici di pericolosità delle condotte, sarà analizzata la tenuta di questi “elementi opzionali del reato” alla luce dei principi penalistici di tassatività, materialità, offensività e laicità.
Resumo:
Questa tesi nasce come risultato di un'esperienza di stage svolta presso l'ufficio Pianificazione e Risk Management in Cassa di Risparmio di Cento; l'obiettivo di questo lavoro è la descrizione dell'analisi da me svolta per la ricostruzione del metodo di determinazione del tasso interno di trasferimento adottato in questa banca. A questo studio è stata aggiunta una sezione legata all'analisi e all'implementazione di due modelli stocastici per l'evoluzione dei tassi di interesse (modello di Vasicek e modello CIR).
Resumo:
La dissertazione è uno studio monografico delle cantate dialogiche e delle serenate a più voci e strumenti composte da Händel in Italia negli anni 1706-1710. Insieme ai drammi per musica e agli oratori coevi, le quattro cantate "Aminta e Fillide" HWV 83, "Clori, Tirsi e Fileno" HWV 96, "Il duello amoroso" HWV 82, "Apollo e Dafne" HWV 122 e le due serenate "Aci, Galatea e Polifemo" HWV 72 e "Olinto pastore arcade alle glorie del Tebro" HWV 143 costituiscono le prime importanti affermazioni di Händel come compositore di musica vocale. Le sei composizioni sono state studiate sotto l’aspetto storico-letterario, drammaturgico-musicale e della committenza, con l’obiettivo di individuare intersecazioni fra questi piani. I testi poetici, di cui si è curata l’edizione, sono stati analizzati da un punto di vista storico e stilistico e collocati nel particolare contesto romano del primo Settecento, in cui la proibizione di ogni spettacolo teatrale determinò, sotto la spinta di una raffinata committenza, un ‘drammatizzazione’ dei generi della cantata e della serenata. L’analisi musicale di ciascuna composizione è stata dunque finalizzata a una lettura ‘drammaturgica’, che ha portato alla individuazione dei dispositivi di ascendenza teatrale nella scelte compositive di Händel. Lo studio si conclude con un selettivo confronto con le cantate e le serenate scritte negli stessi anni a Roma da Alessandro Scarlatti.
Resumo:
La Tesi Materiale epigrafico per la ricostruzione dei contatti nel Mediterraneo tra il 1200 a.C. e il 500 a.C. si propone di illustrare i complessi rapporti instauratisi tra i vari popoli che si affacciarono sulle rive del Mediterraneo e nelle sue vicinanze, tra il 1200 e il 500 a.C. circa, quali emergono dalle iscrizioni disponibili, principalmente greche e semitiche (soprattutto fenicie, ebraiche, aramaiche e assire), prendendo tuttavia in esame anche iscrizioni ittite, egiziane, frigie, etrusche e celtiche. Le date suddette riguardano due eventi cruciali, che sconvolsero il Mediterraneo: gli attacchi dei Popoli del Mare, che distrussero l'Impero Ittita e indebolirono l'Egitto, e le guerre Persiane. Le iscrizioni riportate sono 1546, quasi sempre traslitterate, tradotte, e accompagnate da un'immagine, da riferimenti bibliografici essenziali e da una breve motivazione del collegamento proposto. Il quadro che si delinea ben testimonia la complessità dei rapporti che si intrecciarono in quel periodo: si pensi alle centinaia di graffiti greci trovati a Naucrati, in Egitto, o alle decine di iscrizioni greche trovate a Gravisca. Anche le iscrizioni aramaiche e assire attestano gli stretti rapporti che si formarono tra Siria e Mesopotamia; ugualmente Iran e Arabia sono, direttamente o indirettamente, collegati a Etruria e Grecia; così troviamo un'iscrizione greca nel cuore dell'Impero Persiano, e un cratere laconico nel centro della Gallia. In realtà lo scopo di questo lavoro è anche quello di mettere in contatto due mondi sostanzialmente separati, ossia quello dei Semitisti e quello dei Grecisti, che solo apparentemente si conoscono e collaborano. Inoltre vorrei soavemente insinuare l'idea che la tesi di Joseph Naveh, che ipotizzò che gli alfabeti greci abbiano tratto origine in prima istanza dalle iscrizioni protocananaiche, nel XII sec. a.C., è valida, e che solo in un secondo tempo i Fenici abbiano dato il loro apporto.
Resumo:
I centri urbani di una città sono il loro cuore, la parte da cui tutto trae origine. In queste aree ritroviamo le principali attività che danno sostenimento alla città. Il primo evidente esempio è proprio la nascita del centro coloniale:nelle otto cuadras attorno alla piazza sono sempre collocate le principali funzioni pubbliche, degradando di importanza allontanandosi fino ad arrivare alle residenze popolari. Nel corso del tempo si alternano cicli in cui queste aree possono perdere la loro forza e deteriorarsi, ed è proprio qui che è fondamentale indagare sulla forma di adattazione urbanistica per adattarsi a questi cicli. Questo è il caso dell’intera area di San Victorino, nata come un'importante centro per la città, oggigiorno si presenta in condizioni di estremo deterioro.L’obiettivo di partenza dell’intero progetto sarà quello di ridefinire una nuova centralità su quella esistente, che ritrovi il pregio acquisito fin dalla sua nascita.La strategia progettuale propone una ridefinizione dell'intero fronte del precedente Rio San Francisco con edifici torre-piattaforma disposti modularmente fino ad arrivare al Parque del Tercer Milenio.