973 resultados para Cento anni fa


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dalla collaborazione fra il Comune di Ravenna ed ENI ha preso origine il progetto “RIGED – Ra” ossia il “Progetto di ripristino e gestione delle dune costiere ravennati”. Nell’ambito di tale attività sperimentale si è voluto effettuare una caratterizzazione dell’idrologia di una limitata, ma rappresentativa, porzione dell’acquifero freatico costiero situata in un cordone di dune posto nella Pineta di Lido di Classe, a sud di Foce Bevano. Lo studio si pone di essere rappresentativo per le caratteristiche idrogeologiche delle dune costiere adriatiche nella zona di Ravenna. A tale fine è stato valutato l’andamento di alcuni parametri chimico-fisici delle acque sotterranee; inoltre, è stata monitorata mensilmente la profondità della tavola d’acqua (water table - WT). Questi monitoraggi hanno permesso di descrivere la distribuzione delle acque dolci e di quelle salate nonché la loro dinamica stagionale. Infine, è stata eseguita un’analisi idro-geochimica con l’intento di valutare la tipologia delle acque presenti nell’area in esame e la loro eventuale variazione stagionale. Per la raccolta dei campioni è stata sfruttata l’innovativa metodologia a minifiltri utilizzata da alcuni anni nel nord dell’Europa, in modo particolare in Olanda. Questa tecnica ha due caratteristiche peculiari: i tempi di campionamento vengono ridotti notevolmente ed, inoltre, permette un’ottima precisione e rappresentatività delle acque di falda a diverse profondità poiché si effettua un campionamento ogni 0,50 m. L’unico limite riscontrato, al quale vi è comunque rimedio, è il fatto che la loro posizione risulti fissa per cui, qualora vi siano delle fluttuazioni dell’acquifero al di sopra del minifiltro più superficiale, queste non vengono identificate. È consigliato quindi utilizzare questo metodo di campionamento poiché risulta essere più performante rispetto ad altri (ad esempio al sistema che sfrutta lo straddle packers SolinstTM ) scegliendo tra due diverse strategie per rimediare al suo limite: si aggiungono minifiltri superficiali che nel periodo estivo si trovano nella zona vadosa dell’acquifero oppure si accompagna sempre il campionamento con una trivellata che permetta il campionamento del top della falda. Per quanto concerne la freatimetria il campionamento mensile (6 mesi) ha mostrato come tutta l’area di studio sia un sistema molto suscettibile all’andamento delle precipitazioni soprattutto per la fascia di duna prossima alla costa in cui la scarsa vegetazione e la presenza di sedimento molto ben cernito con una porosità efficace molto elevata facilitano la ricarica dell’acquifero da parte di acque dolci. Inoltre, sul cordone dunoso l’acquifero si trova sempre al di sopra del livello medio mare anche nel periodo estivo. Per questa caratteristica, nel caso l’acquifero venisse ricaricato artificialmente con acque dolci (Managed Aquifer Recharge), potrebbe costituire un efficace sistema di contrasto all’intrusione salina. Lo spessore d’acqua dolce, comunque, è molto variabile proprio in funzione della stagionalità delle precipitazioni. Nell’area retro-dunale, invece, nel periodo estivo l’acquifero freatico è quasi totalmente al di sotto del livello marino; ciò probabilmente è dovuto al fatto che, oltre ai livelli topografici prossimi al livello medio mare, vi è una foltissima vegetazione molto giovane, ricresciuta dopo un imponente incendio avvenuto circa 10 anni fa, la quale esercita una notevole evapotraspirazione. È importante sottolineare come durante la stagione autunnale, con l’incremento delle precipitazioni la tavola d’acqua anche in quest’area raggiunga livelli superiori a quello del mare. Dal monitoraggio dei parametri chimico – fisici, in particolare dal valore dell’Eh, risulta che nel periodo estivo l’acquifero è un sistema estremamente statico in cui la mancanza di apporti superficiali di acque dolci e di flussi sotterranei lo rende un ambiente fortemente anossico e riducente. Con l’arrivo delle precipitazioni la situazione cambia radicalmente, poiché l’acquifero diventa ossidante o lievemente riducente. Dalle analisi geochimiche, risulta che le acque sotterranee presenti hanno una composizione esclusivamente cloruro sodica in entrambe le stagioni monitorate; l’unica eccezione sono i campioni derivanti dal top della falda raccolti in gennaio, nei quali la composizione si è modificata in quanto, il catione più abbondante rimane il sodio ma non si ha una dominanza di un particolare anione. Tale cambiamento è causato da fenomeni di addolcimento, rilevati dall’indice BEX, che sono causati all’arrivo delle acque dolci meteoriche. In generale, si può concludere che la ricarica superficiale e la variazione stagionale della freatimetria non sono tali da determinare un processo di dolcificazione in tutto l’acquifero dato che, nelle zone più profonde, si rivela la presenza permanente di acque a salinità molto superiore a 10 g/L. La maggior ricarica superficiale per infiltrazione diretta nelle stagioni a più elevata piovosità non è quindi in grado di approfondire l’interfaccia acqua dolce-acqua salata e può solamente causare una limitata diluizione delle acque di falda superficiali.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L'analisi di un'immagine con strumenti automatici si è sviluppata in quella che oggi viene chiamata "computer vision", la materia di studio proveniente dal mondo informatico che si occupa, letteralmente, di "vedere oltre", di estrarre da una figura una serie di aspetti strutturali, sotto forma di dati numerici. Tra le tante aree di ricerca che ne derivano, una in particolare è dedicata alla comprensione di un dettaglio estremamente interessante, che si presta ad applicazioni di molteplici tipologie: la profondità. L'idea di poter recuperare ciò che, apparentemente, si era perso fermando una scena ed imprimendone l'istante in un piano a due dimensioni poteva sembrare, fino a non troppi anni fa, qualcosa di impossibile. Grazie alla cosiddetta "visione stereo", invece, oggi possiamo godere della "terza dimensione" in diversi ambiti, legati ad attività professionali piuttosto che di svago. Inoltre, si presta ad utilizzi ancora più interessanti quando gli strumenti possono vantare caratteristiche tecniche accessibili, come dimensioni ridotte e facilità d'uso. Proprio quest'ultimo aspetto ha catturato l'attenzione di un gruppo di lavoro, dal quale è nata l'idea di sviluppare una soluzione, chiamata "SuperStereo", capace di permettere la stereo vision usando uno strumento estremamente diffuso nel mercato tecnologico globale: uno smartphone e, più in generale, qualsiasi dispositivo mobile appartenente a questa categoria.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In Medicina Nucleare è possibile ottenere immagini funzionali grazie all’iniezione nel paziente di un radiofarmaco. Quello più utilizzato nelle procedure diagnostiche di Medicina Nucleare è il 99mTc, un gamma emettitore con tempo di dimezzamento di circa sei ore. Attualmente, questo nuclide è prodotto attraverso generatori di 99Mo-99mTc, sfruttando il decadimento β- del 99Mo. Da diversi anni, però, si cerca in tutto il mondo una soluzione alternativa alla produzione di 99mTc, poiché il 99Mo si ottiene in reattori nucleari a partire dalla reazione di fissione del 235U, ma tali reattori sono stati quasi tutti costruiti più di cinquanta anni fa e necessitano continuamente di spegnimenti prolungati e riparazioni. L’alternativa più accreditata è quella relativa alla produzione diretta di 99mTc in ciclotrone attraverso l’irraggiamento di 100Mo con protoni. Il problema principale risiede nella scelta della forma chimica che contenga il 100Mo e del tipo di target da irraggiare. Quest’ultimo deve resistere ad alte correnti e a lunghi tempi di irraggiamento per ottenere quantità di 99mTc sufficienti a soddisfare almeno il fabbisogno del centro ospedaliero in cui è prodotto. Questo lavoro di tesi, svolto presso il Servizio di Fisica Sanitaria del Policlinico S.Orsola-Malpighi, è basato sulla realizzazione di un target a basso costo di triossido Molibdeno arricchito per la produzione diretta di 99mTc. Si sono inoltre valutate le impurezze e l’attività del nuclide di nostro interesse a seguito di irraggiamenti nel ciclotrone PETtrace.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Con l’incremento della popolazione mondiale e la conseguente crescita del fabbisogno di energia dovuta a nuovi lavori e sempre più macchinari in circolazione, è insorta l'esigenza di produrre più energia elettrica. A partire dagli anni ’50 numerosi scienziati hanno analizzato il problema energetico e sono giunti alla conclusione che fonti di energia come petrolio, carbone e gas non erano in grado di soddisfare il bisogno umano sul lungo termine e si è quindi passati alla ricerca di altre fonti di energia come il nucleare. Oggi, grazie ad un progetto ed uno studio di circa 50 anni fa – finalizzato alla alimentazione di satelliti geostazionari - , si sta sempre di più affermando la scelta del fotovoltaico, in quanto rappresenta un’energia pulita e facilmente utilizzabile anche nei luoghi dove non è possibile avere un allaccio alla normale rete elettrica. La ricerca di questo nuovo metodo di produrre energia, che tratta la conversione di luce solare in energia elettrica, si è evoluta, differenziando materiali e metodi di fabbricazione delle celle fotovoltaiche, e quindi anche dei moduli fotovoltaici. Con la crescente produzione di apparati elettronici si è arrivati però ad avere un nuovo problema: il consumo sempre maggiore di silicio con un conseguente aumento di prezzo. Negli ultimi anni il prezzo del silicio è significativamente aumentato e questo va a pesare sull’economia del pannello fotovoltaico, dato che questo materiale incide per il 40-50% sul costo di produzione. Per questo motivo si sono voluti trovare altri materiali e metodi in grado di sostituire il silicio per la costruzione di pannelli fotovoltaici, con il seguire di nuovi studi su materiali e metodi di fabbricazione delle celle. Ma data la conoscenza e lo studio dovuto ai vari utilizzi nell’elettronica del silicio, si è anche studiato un metodo per ottenere una riduzione del silicio utilizzato, creando wafer in silicio sempre più sottili, cercando di abbassare il rapporto costo-watt , in grado di abbassare i costi di produzione e vendita.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Nel 1919 l'arabista spagnolo Miguel Asín Palacios dà alle stampe La Escatologìa musulmana en la Divina, in cui, attraverso una serie impressionante di analogie, dimostra l'esistenza di un rapporto «modello-copia» tra le narrazioni musulmane del viaggio ultraterreno di Maometto e la Divina Commedia. Questa controversa opera sarà la scintilla di una polemica, che ancora oggi, a distanza di cento anni rimane aperta e sconosciuta ai più. Questo è il motivo che mi ha spinta a trattare questo argomento nel presente elaborato: il mio scopo è quello di fornire una sintesi della Questione delle fonti islamiche della Divina Commedia, mostrare una panoramica dell'evoluzione del dibattito e dimostrare come, quelle che nell'opera di Palacios erano solo ipotesi, si siano rivelate essere, entro certi limiti, una realtà. Che il Medioevo europeo fosse saturo di pensiero e di arte islamica è innegabile: affermare che Dante, con la sua universale curiositas, si astenne completamente da questi influssi sembra indicare soltanto un certo disagio dei critici italiani nei confronti di questo mondo, a cui l'Europa guarda spesso solo attraverso eventi quali la guerra santa, la sottomissione della donna e il fanatismo. Proprio in un epoca come la nostra, in cui le barbare follie del fondamentalismo ci spingono a temere l'altro, questi studi assumono nuovo valore: la presenza di un'influenza islamica non rende meno grande il genio dantesco, anzi ne allarga gli orizzonti e rende la sua opera un esempio di interculturalità e di apertura profondamente attuale.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Il lavoro svolto in questa tesi si inserisce in una ricerca iniziata pochi anni fa dal Dott. Bontempi. Riguarda la stima della fluenza fotonica tramite due metodi diversi da quelli adottati nella letteratura. I metodi proposti dalla letteratura valutano operativamente la fluenza fotonica ad alta intensità. Sono basati sulla correlazione tra fluenza fotonica e quantità dosimetriche, come l’esposizione o l’Air Kerma. Altre correlano la valutazione dell’HVL con la fluenza dei fotoni. Sebbene queste metodologie siano semplici da implementare, la valutazione della fluenza dei fotoni è ottenuta tramite il concetto di equivalenza del fascio monocromatico. Questo causa discrepanze nella valutazione della reale quantità di fotoni emessa dalla sorgente di raggi X. Il Dott. Bontempi ha sviluppato due diverse metodologie per il calcolo della fluenza: il primo metodo è basato sul calcolo del Kerma unito ad un modello semi empirico per il computo dello spettro dei raggi X. Il secondo metodo è invece basato sulla valutazione della funzione nNPS registrata in un’immagine a raggi X e quella ottenuta simulando il sistema sorgente-rivelatore.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La sinergia tra diverse aree scientifiche svolge oggi un ruolo preminente nella risoluzione di problematiche molto complesse: in ambito medico, un massiccio intervento delle scienze fisico-matematiche ha portato, grazie alla ricerca sulle proprietà subatomiche (NMR), sulla funzione elettromeccanica tissutale (pace-makers) e sulla biocompatibilità di materiali innovativi, ad un completo rinnovamento e miglioramento delle terapie tradizionali, delineando nuove strategie terapeutiche. In questo quadro di attiva collaborazione si colloca la ricerca in ambito biomeccanico cardiovascolare che, approfondendo la funzionalità del cuore e dei vasi in condizioni normali e patologiche, propone soluzioni terapeutiche alternative all'approccio farmacologico, impensabili fino a pochi anni fa. Uno di questi ambiti è l'insufficienza cardiaca: al ventricolo incapace di produrre l'energia necessaria alla perfusione ematica viene associato un sistema di pulsazione meccanica che riduce il carico durante l'eiezione ed aumenta la perfusione coronarica in diastole. Tuttavia, benché l'efficacia della contropulsazione intra-aortica sia riconosciuta da decenni, alcune problematiche rimangono irrisolte: l'inapplicabilità su pazienti aritmici, l'eccessiva sollecitazione meccanica in pazienti vasculopatici, la complessità e l'alto costo dell'apparecchiatura. Questo lavoro affronta la validazione e la caratterizzazione di una soluzione terapeutica alternativa, di tipo completamente passivo, il cui effetto non è basato sulla somministrazione di energia meccanica dall'esterno, attraverso la pulsazione, ma sull'adattamento di impedenza biomeccanica tra la sorgente elastica pulsatile (il ventricolo) ed il carico (l'aorta). Per verificare l'ipotesi funzionale è stato realizzato un sistema contrattile che simulasse diversi livelli di insufficienza ventricolare ed un sistema vascolare con resistenza idraulica ed elastanza variabili. Sono stati rilevati i parametri fisiologici (pressioni, flusso, potenza ed efficienza) nelle diverse condizioni di accoppiamento biomeccanico e si sono ripetuti i rilievi inserendo il dispositivo di contropulsazione passiva. La validazione sperimentale ha prodotto risultati coerenti con quanto atteso ed è stata indispensabile per l'ottenimento, da parte del Comitato Etico, dell'autorizzazione per la sperimentazione clinica del sistema in oggetto.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In questa tesi, sono esposti i sistemi di navigazione che si sono evoluti, parimenti con il progresso scientifico e tecnologico, dalle prime misurazioni della Terra, per opera della civiltà ellenica, circa 2.500 anni fa, sino ai moderni sistemi satellitari e ai mai tramontati sistemi di radionavigazione. I sistemi di navigazione devono rispondere alla sempre maggiore richiesta di precisione, affidabilità, continuità e globalità del servizio, della società moderna. È sufficiente pensare che, attualmente, il solo traffico aereo civile fa volare 5 miliardi di passeggeri ogni anno, in oltre 60 milioni di voli e con un trasporto cargo di 85 milioni di tonnellate (ACI - World Airports Council International, 2012). La quota di traffico marittimo mondiale delle merci, è stata pari a circa 650 milioni di TEU (twenty-foot equivalent unit - misura standard di volume nel trasporto dei container ISO, corrisponde a circa 40 metri cubi totali), nel solo anno 2013 (IAPH - International Association of Ports and Harbors, 2013). Questi pochi, quanto significativi numeri, indicano una evidente necessità di “guidare” questo enorme flusso di aerei e navi in giro per il mondo, sempre in crescita, nella maniera più opportuna, tracciando le rotte adeguate e garantendo la sicurezza necessaria anche nelle fasi più delicate (decollo e atterraggio per gli aeroplani e manovre in porto per le grandi navi). Nello sviluppo della tesi si proverà a capire quali e quanto i sistemi di navigazione possono assolvere al ruolo di “guida” del trasporto aereo e marittimo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

I semiconduttori organici presentano proprietà che consentono la produzione di dispositivi impensabili fino a pochi anni fa: sono flessibili, leggeri e robusti, ed inoltre facili ed economici da depositare. La loro capacità di rivelare direttamente la radiazione ionizzante, convertendola in segnale elettrico, li pone come ottimi candidati per una nuova generazione di rivelatori a stato solido per raggi X, utilizzabili in situazioni e luoghi prima inaccessibili a quelli inorganici, o addirittura comodamente indossabili. Tuttavia i fenomeni di fotogenerazione e raccolta di carica in questi materiali non sono ancora completamente compresi. Ottimali per lo studio di queste ed altre proprietà intrinseche sono le forme di impacchettamento a cristallo singolo. Questa tesi analizza e confronta i segnali elettrici di campioni di cristalli singoli di TIPS-pentacene quando esposti a flussi crescenti di radiazione visibile e di raggi X a diversi voltaggi, proponendo dei modelli per la loro interpretazione. Viene inoltre riportato un confronto con le stesse misure effettuate su un campione dello stesso materiale in forma di film sottile.

Relevância:

80.00% 80.00%

Publicador:

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El tema de la tesis se centra en el pensamiento de Walter Benjamin y en el concepto de percepción distraída, desarrollado en el ensayo La obra de arte en la época de su reproducibilidad técnica (1936). El título percepción dispersa deriva de una profundización de los conceptos benjaminianos en términos lingüísticos, adoptando otros significados de la palabra distracción que relacionan este concepto a cuestiones de ámbito espacial y atmosférico. Benjamin sostiene que la arquitectura, en una época en la que se desarrollan y se difunden nuevas técnicas de reproducción/ comunicación, no se puede percibir solo de manera visual sino también táctil, interrelacionando la difusión de nuevas técnicas de reproducción, la tensión entre diferentes modalidades perceptivas y la arquitectura: según él, la dispersión de la vista a favor de la percepción táctil/háptica es un rasgo característico de una sociedad en la que se desarrollan y se difunden nuevas técnicas de reproducción. La tesis profundiza en estos temas, actualizando el concepto de distracción/dispersión para valorar las repercusiones de esta intuición en el ámbito de una parte de la producción arquitectónica contemporánea: se propone una contextualización histórica y una conceptual, relativas a los proyectos recientes de algunos de los autores que profundizan en el impacto de las nuevas tecnologías en el ámbito del proyecto de arquitectura. La hipótesis que se quiere demostrar es que se está desarrollando una tendencia que lleva proyectos o edificios de alto nivel tecnológico y informático desde un ámbito de (supuesto) predominio de la percepción visual, hasta una arquitectura que proporciona experiencias multisensoriales: espacios que se pueden medir con el movimiento, los músculos y el tacto, que desarrollan un conjunto de sensaciones táctiles/hápticas y no solo visuales. Finalmente se quiere verificar si, revertiendo siglos de evolución visual, la visión táctil y cercana siga siendo uno de los polos dialécticos que estructuran la experiencia de la arquitectura, como previsto por Benjamin hace 75 años. ABSTRACT The thesis focuses on the thought of Walter Benjamin and the concept of distracted perception, developed in the essay The Work of Art in the Age of Mechanical Reproduction (1936). The title derives from a linguistic approach to this concept which further explores the meaning of the word distraction, finally relating this kind of perception to spatial and atmospheric issues. Benjamin argues that architecture, thanks to the development of new reproduction/communication technologies, cannot be perceived exclusively in a visual way but also in a tactile way, interrelating new technologies of reproduction, perceptual modalities and architecture: according to him, the dispersion of the view in favor of tactile/ haptic perception is a fundamental characteristic of a technologically developed society. The thesis explores these issues, updating the concept of distraction/dispersion to assess its implications in the works of some architects that are exploring with their buildings the impact of new communication technologies in the field of architectural design. The hypothesis at the base of this work is that we are facing a new trend in this particular field: many of the most advanced buildings provide multisensory experience, and define spaces that can be better perceived with the sense of touch (haptic sense), going beyond a mere visual perception. Finally the thesis wants to verify if, reversing centuries of visual evolution, tactile and close vision remains one of the dialectical poles that stay at the base of the experience of architecture, as foreseen by Benjamin 75 years ago. ABSTRACT La tesi si basa sul pensiero di Walter Benjamin e sul concetto di percezione distratta, sviluppato nel saggio La opera d’arte nell’epoca della sua riproducibilità tecnica (1936). Il titolo, percezione dispersa, deriva da un approfondimento dei concetti benjaminiani in termini linguistici, adottando ulteriori significati della parola che il filosofo utilizza per indicare la distrazione e che relazionano questo termine a questioni di ambito spaziale ed atmosferico. Benjamin sostiene che l’architettura, in un’epoca nella quale si sviluppano e si diffondono nuove tecniche di riproduzione (o meglio: nuove tecnologie di comunicazione), non possa essere percepita solamente in maniera visuale, ma anche tattile, mettendo in relazione la diffusione di nuove tecnologie, la tensione tra differenti modalità percettive e l’architettura: secondo Benjamin, la dispersione della vista a favore di una ricezione tattile/aptica della realtà è una caratteristica tipica di quei momenti storici nei quali si manifestano grandi trasformazioni di ambito sociale e culturale dovute allo sviluppo di nuove tecnologie di comunicazione. La tesi approfondisce questi temi, aggiornando il concetto di distrazione/dispersione per valutarne le ripercussioni su una certa parte della produzione architettonica contemporanea: si propone una contestualizzazione storica ed una concettuale, relative ai progetti di alcuni architetti che lavorano da tempo sull’impatto delle nuove tecnologie nell’ambito del progetto di architettura. La ipotesi che si dimostra con questa tesi è che si sta sviluppando una contro-tendenza tattile, a seguito della quale molti degli edifici tecnologicamente ed informaticamente più avanzati strutturano la relazione con i propri utenti sulla base di esperienze multisensoriali, definendo spazi che possono essere percepiti attraverso una percezione aptica, piuttosto che visuale. In definitiva la tesi verifica che, superando secoli di evoluzione visuale, la visione tattile e ravvicinata e - più in generale - una percezione di tipo aptico continuano ad essere uno dei poli dialettici che strutturano l’esperienza dell’architettura, come previsto da Benjamin più di 75 anni fa.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Fino a pochi anni fa l’economia dei paesi più sviluppati non teneva in nessun conto l’esauribilità delle risorse del pianeta. La crescita dei paesi cosiddetti emergenti ci ha messo di fronte ad un problema enorme: ciò che la terra produce non è più sufficiente per i consumi di tutti. In particolare è aumentato a dismisura il fabbisogno energetico di questi paesi: per soddisfarlo ogni risorsa viene utilizzata senza tenere conto degli effetti inquinanti. Si cominciano già a vederne i primi, di cui il più evidente è il cambiamento climatico, che può portare a veri e propri scompensi ambientali anche nel breve periodo fino a vere e proprie catastrofi (se l’aumento di temperatura supererà i 3°C). Questo problema non è risolvibile istantaneamente ma è fondamentale cominciare a fare qualcosa: un sistema di incentivi che promuova il rinnovabile e adottare nuovi sistemi di sfruttamento dell’energia. In tale ambito sono stati fatti grandi passi, ma bisogna continuare in questo senso. Risulta quindi fondamentale l’utilizzo di energie rinnovabili, che hanno il grande vantaggio di non essere inquinanti ma allo stesso tempo, non essendo programmabili, per poterle sfruttare al meglio e in modo istantaneo necessitano di sistemi di accumulo che permettano all’utente di soddisfare immediatamente la richiesta. Studiamo quindi il comportamento di un sistema di approvvigionamento alimentato da fonte rinnovabile non programmabile per la produzione di idrogeno, che permette un semplice stoccaggio in bombole a una pressione relativamente bassa (10 bar), consentendone l’utilizzo sia come idrogeno purissimo che in un metanatore. In particolare verificheremo il comportamento del sistema di accumulo a gel di piombo; per ottenerne il miglior rendimento, ricercandone la migliore efficienza e le curve di funzionamento. Per ottenere la migliore efficienza del sistema occorre che i componenti vengano progettati, studiati ed utilizzati nelle più performanti condizioni di lavoro.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dopo più di due secoli dalla nascita di Darwin e più di centocinquant’anni dalla pubblicazione della sua opera più importante, l’Origine delle specie, tenuta in debita considerazione l’importanza del concetto di evoluzione biologica come chiave esplicativa per tutta la Biologia, diviene fondamentale ripercorrere brevemente, per così dire, l’evoluzione dell’evoluzionismo. Il 12 febbraio del 1809 nasceva Charles Robert Darwin, mentre il 24 novembre 1859 veniva pubblicata la sua opera più importante l’Origine delle specie. Nonostante le conoscenze biologiche di duecento anni fa fossero inadeguate a fornire il sostrato adeguato per spiegare come effettivamente si ereditassero i caratteri dei genitori, le esplorazioni dei Paesi extraeuropei, con il corollario di importanti reperti biologici che affluivano in Europa, nonché l’accumulo di fatti e scoperte, coadiuvati dall’emergere di una nuova borghesia avida di conoscenza, rendevano sempre più problematica l’accettazione delle spiegazioni metafisiche dei fenomeni naturali. Ovviamente, il cambio di paradigma non è stato indolore: le gerarchie ecclesiastiche ed il potere politico non accettarono facilmente (e non lo fanno neanche adesso!) di vedere messo in discussione lo status quo. Mi torna in mente la frase che il Primo Ministro Britannico Disraeli disse, commentando l’uscita dell’Origine delle specie: “Il Signor Darwin discenderà dalle scimmie, ma io discendo dagli angeli”. A prescindere da ciò, attualmente gli strepitosi successi della Biologia, uniti alla necessità, sempre più impellente, di salvaguardare la diversità biologica, impongono di conoscere, almeno per sommi capi, l’evoluzionismo ed il suo sviluppo poiché, come affermato da Dobzhansky: “Nulla ha senso in Biologia, se non alla luce dell’Evoluzione”. Infatti, Con lo sviluppo della biologia moderna, e delle altre scienze ad essa collegate, si è profondamente modificato il concetto stesso del mondo naturale. Si è inserita una visione storica della natura. Di più, l’uomo è sceso da quel piedistallo su cui credeva di essere nel sistema naturale. Per questo Sigmund Freud ha definito l’Origine delle specie di Darwin, il “colpo biologico” alla presunzione umana. Il concetto di evoluzione ha anche contribuito allo sviluppo di una visione laica della realtà.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Fino a pochi anni fa, usare i trasporti pubblici poteva essere fonte di confusione e richiedere la comprensione del sistema dei trasporti locali. Più tardi, con la diffusione di dispositivi con localizzazione GPS, reti dati cellulare e Google Maps (inizialmente Google Transit), tutto è cambiato, rendendo possibile la pianificazione di un viaggio mentre si è fuori casa. Nonostante Google Maps disponga di indicazioni stradali più o meno in tutto il mondo e mostri molte informazioni, alcune funzionalità, come l’integrazione degli orari in tempo reale, non sono disponibili in tutte le città, ma sono basate su accordi con le agenzie dei trasporti locali. GoGoBus è un’applicazione Android per l’ausilio al trasporto nella città di Bologna. Combinando diversi servizi, GoGoBus si rivolge a svariati tipi di utilizzatori: offre la pianificazione per i meno pratici del sistema e coloro che usano i trasporti pubblici raramente, dispone di orari in tempo reale per chi usa i mezzi frequentemente, e in più traccia la posizione dell’autobus, ha un supporto vocale e un’interfaccia semplice per persone con disabilità. Progettata appositamente per ipovedenti, l’aspetto più innovativo dell’applicazione è il suo supporto durante il percorso sull’autobus, integrato alla pianificazione del tragitto e agli orari aggiornati in tempo reale. Il sistema traccia la posizione dell’autobus attraverso il GPS del dispositivo mobile, la cui posizione è usata sia per riconoscere quando una fermata viene superata, sia per mostrare informazioni utili come la distanza dalla prossima fermata, il numero di fermate e i minuti rimanenti prima di scendere, e soprattutto notificare l’utente quando deve scendere. L’idea dietro GoGoBus è incrementare la fruibilità dei trasporti pubblici per non vedenti, ma anche per persone che li usano di rado, aumentando ampiamente la loro indipendenza, allo stesso tempo migliorando la qualità del servizio per chi usa i mezzi quotidianamente.