999 resultados para 616.5 Malattie del tegumento, dei peli, delle unghie
Resumo:
Quando avvengono disastri naturali, spesso la copertura dati viene a mancare e le infrastutture o sono danneggiate o sono sovraccariche; in questo modo è difficile comunicare sia da parte delle persone che hanno bisogno di aiuto, sia da parte dei soccorritori che cercano di organizzare i soccorsi. Con questa tesi si è voluto realizzare un'applicazione Android che permetta agli utenti di segnalare il proprio bisogno di aiuto, anche se il device non ha una connessione internet attiva. L'applicazione, sfruttando il Wi-Fi e il Wi-Fi Direct, cercherà di formare una rete di dispositivi, attraverso la quale i messaggi di aiuto degli utenti verranno scambiati tra i device. Questa rete, man mano, si allargherà fino ad arrivare ad includere device che avranno una connessione dati attiva. Questi comunicheranno con il mio server, al quale manderanno tutti i messaggi che gli sono arrivati. I dati del server, ossia i messaggi che sono stati mandati dagli utenti, verranno mostrati sul sito ltw1528.web.cs.unibo.it. Attraverso questo sito, i soccorritori potranno vedere la posizione degli utenti in stato di bisogno, cosicché potranno mandarli un messaggio di soccorso, che si propagherà nella rete formatasi in precedenza, ed organizzare i soccorsi in maniera ottimale. Si è anche voluto fare uno studio simulativo per testare la scalabilità dell'applicazione e per raccogliere dati statistici, quali il delay medio tra l'arrivo del messaggio al device con connessione dati e il tempo in cui è stato creato, l'influenza sulla batteria del numero dei messaggi scambiati e il numero degli host, il delay tra il tempo di invio e il tempo di arrivo nello scambio di messaggi al variare del numero degli host.
Resumo:
L’esperimento LHCb al CERN di Ginevra è stato appositamente progettato per effettuare misure di precisione nel settore della fisica del sapore, per verificare la validità delle previsioni del Modello Standard. Il Modello Standard descrive le trasformazioni dello stato di flavour dei quark secondo lo schema di mixing compendiato nella matrice unitaria di Cabibbo-Kobayashi-Maskawa. La verifica dell’unitarietà della matrice di mixing è dunque uno dei campi d’indagine più importanti nella fisica delle particelle. I modelli teorici che estendono il Modello Standard prevedono infatti meccanismi alternativi a quello CKM per la trasformazione del flavour che implicherebbero una violazione della unitarietà. Allo scopo di studiare la dinamica del flavour l’esperimento LHCb realizza misure della violazione della simmetria di coniugazione di carica e parità CP. Le misure di violazione della simmetria CP permettono di determinare i valori dei parametri complessi della matrice CKM (modulo e fase). Esse si basano sulla misura delle asimmetrie di decadimento di stati coniugati di carica di mesoni costituiti da quark charm (mesoni D) e beauty (mesoni B) in stati finali costituiti da particelle scelte opportunamente. Di particolare importanza in questo programma di ricerca è la misura della fase del termine Vub della matrice CKM, denominata γ. Scopo della tesi è lo studio dei metodi di misura della fase γ. La tesi è organizzata in quattro capitoli. Nei primi tre capitoli sono state poste le basi teoriche per la comprensione della fenomenologia delle interazioni deboli e della sua descrizione nel Modello Standard. È stata discussa in dettaglio la dinamica del sistema dei mesoni neutri e la violazione della simmetria CP dovuta sia al decadimento sia alla oscillazione. Dopo l’inquadramento teorico, nel quarto e ultimo capitolo, sono stati presentati i tre modelli teorici generalmente utilizzati per la misura della fase γ e impiegati dagli esperimenti dedicati alla fisica del flavour. I metodi proposti sono quelli più importanti, che fino ad oggi hanno consentito di misurare γ. Al momento LHCb ha ottenuto la migliore misura di γ, con un errore relativo del 13%, combinando le tre metodologie di analisi. Si prevede che l’esperimento LHCb possa migliorare significativamente la precisione di misura raccogliendo nel prossimo futuro un campione di eventi di dimensione un’ordine di grandezza maggiore dell’attuale.
Resumo:
In questo elaborato, presenterò il racconto per bambini, intitolato Ma al-mani’? (ما المانِع؟, lett. “Che cosa è proibito?”), della scrittrice palestinese Taghreed Najjar, attraverso la cui analisi e traduzione in italiano illustrerò alcune delle figure e tradizioni arabo-musulmane, presenti nell’opera. Dopo aver letto la trama del libro, che di seguito riporterò insieme alla sua traduzione, e averla confrontata con altri libri dell’autrice, mi sono convinta del fatto che Ma al-mani’? era il racconto ideale per portare una fetta di mondo arabo in occidente: basato sul ruolo di una figura tutt’oggi esistente in alcuni villaggi arabi, presenta il Ramadan sotto una luce nuova, di festa e comunione, di solidarietà e allegria. Il libro è l’emblema delle favole moderne, alternative e ricche di un nuovo significato morale. La protagonista del racconto, Samia, è il simbolo che le tradizioni esistono, vanno rispettate e portate avanti ma non per questo non possono essere modificate secondo le esigenze del momento. In un mondo troppo spesso colpito da pregiudizi, in un’era d'innovazione continua che porta alla perdita delle proprie radici, in una società divisa fra tradizionalisti e modernisti, Taghreed Najjar apre le menti sbarrate dei bambini di oggi, offrendo loro una storia ricca di coraggio e speranza, tradizione e festa, rispetto reciproco e comunione. In questo elaborato, è mia intenzione illustrarvi questa meravigliosa favola moderna, e le figure e i temi principali in essa trattati: il musahhir ((المُسَحِّر, che durante il sacro mese del Ramadan aveva il compito di svegliare all’alba gli abitanti del villaggio per il suhur (السّحور), l’ultimo pasto prima dell’inizio del digiuno giornaliero; farò una breve introduzione sull’autrice, la casa editrice e l’opera; per ultimo, proporrò la mia traduzione del racconto con un’analisi delle principali difficoltà riscontrate durante il processo traduttivo. Oltre a questo, aggiungerò in appendice, l’intervista che l’autrice del libro, Taghreed Najjar, mi ha gentilmente concesso quando stavo poggiando i primi mattoni di quella che è poi diventata, a tutti gli effetti, la mia tesi di laurea triennale.
Resumo:
La tesi ha lo scopo di indagare le tecnologie disponibili per la realizzazione di linguaggi di programmazione e linguaggi domain specific in ambiente Java. In particolare, vengono proposti e analizzati tre strumenti presenti sul mercato: JavaCC, ANTLR e Xtext. Al termine dell’elaborato, il lettore dovrebbe avere un’idea generale dei principali meccanismi e sistemi utilizzati (come lexer, parser, AST, parse trees, etc.), oltre che del funzionamento dei tre tools presentati. Inoltre, si vogliono individuare vantaggi e svantaggi di ciascuno strumento attraverso un’analisi delle funzionalità offerte, così da fornire un giudizio critico per la scelta e la valutazione dei sistemi da utilizzare.
Resumo:
Nel presente lavoro espongo i risultati degli esperimenti svolti durante la mia internship all’Institut des NanoSciences de Paris (INSP), presso l’Università Pierre et Marie Curie (Paris VI), nel team "Phisico-Chimie et Dynamique des Surfaces", sotto la supervisione del Dott. Geoffroy Prévot. L’elaborato è stato redatto e in- tegrato sotto la guida del Dott. Pasquini, del dipartimento di Fisica e Astronomia dell’Università di Bologna. La tesi s’inserisce nel campo di ricerca del silicene, i.e. l’allotropo bidimensionale del silicio. Il cosidetto free-standing silicene è stato predetto teoricamente nel 2009 utilizzando calcoli di Density Functional Theory, e da allora ha stimolato un’intensa ricerca per la sua realizzazione sperimentale. La sua struttura elettronica lo rende particolarmente adatto per eventuali appli- cazioni tecnologiche e sperimentali, mentre lo studio delle sue proprietà è di grande interesse per la scienza di base. Nel capitolo 1 presento innanzitutto la struttura del silicene e le proprietà previste dagli studi pubblicati nella letteratura scientifica. In seguito espongo alcuni dei risultati sperimentali ottenuti negli ultimi anni, in quanto utili per un paragone con i risultati ottenuti durante l’internship. Nel capitolo 2 presento le tecniche sperimentali che ho utilizzato per effettuare le misure. Molto tempo è stato investito per ottenere una certa dimistichezza con gli apparati in modo da svolgere gli esperimenti in maniera autonoma. Il capitolo 3 è dedicato alla discussione e analisi dei risultati delle misure, che sono presentati in relazione ad alcune considerazioni esposte nel primo capitolo. Infine le conclusioni riassumono brevemente quanto ottenuto dall’analisi dati. A partire da queste considerazioni propongo alcuni esperimenti che potrebbero ulteriormente contribuire alla ricerca del silicene. I risultati ottenuti su Ag(111) sono contenuti in un articolo accettato da Physical Review B.
Resumo:
Negli ultimi quindici anni il traffico aereo passeggeri in Italia è stato interessato da un cospicuo incremento: si è passati dai 91 milioni di passeggeri nel 2000 ai 150 milioni nel 2014. Le previsioni di crescita per il Paese indicano il possibile raddoppio del traffico entro il 2030, quando si dovrebbe raggiungere la soglia dei 300 milioni di passeggeri, con un aumento soprattutto della quota parte internazionale. Non vi può essere sviluppo economico di uno Stato senza crescita del traffico aereo, la quale si può realizzare solo con un adeguamento e un potenziamento delle capacità delle infrastrutture aeroportuali compatibile con le condizioni ambientali e un’efficace interconnessione degli scali con gli altri modi di trasporto. Infatti la pianificazione e la progettazione degli aeroporti non può prescindere da un’analisi approfondita sugli impatti ambientali prodotti dalle attività svolte all’interno degli scali. Inoltre l’incremento del numero medio di passeggeri per movimento (dal 75 pax/mov nel 2000 a 106 pax/mov nel 2011, dato riferito al traffico nazionale) rappresenta un dato positivo dal punto di vista ambientale: nei cieli vola un minor numero di aeromobili, ma in grado di trasportare un maggior numero di passeggeri, con conseguente diminuzione del numero dei movimenti, quindi del rumore, delle emissioni e dell’inquinamento ambientale provocato dalle operazioni necessarie a garantire l’operatività di ciascun volo. La salvaguardia dell’ambiente per un aeroporto è un compito difficile e oneroso, poiché può creare problemi ambientali come inquinamento acustico, dell’aria, delle acque fondiarie e trattamento dei rifiuti. In particolare, scopo di questo elaborato è studiare l’impatto che le operazioni svolte in air-side provocano sulla qualità delle acque di dilavamento, osservando e analizzando le attività che avvengono presso l’Aeroporto G. Marconi di Bologna. Si intende svolgere un censimento delle operazioni che influenzano la qualità delle acque (sia direttamente sia a seguito del dilavamento delle pavimentazioni aeroportuali), indagando quali siano i soggetti coinvolti, le procedure da eseguire, la frequenza e gli eventuali mezzi impiegati. Poi si vogliono eseguire analisi chimiche e granulometriche con un duplice obiettivo: conoscere la qualità delle acque raccolte dalle caditoie presenti nel piazzale e a bordo pista e verificare l’efficacia delle operazioni eseguite anche per ridurre il build up, cioè il tasso di accumulo in tempo secco e, di conseguenza, l’apporto di inquinanti riversato nelle acque di dilavamento. Infine si propongono interventi volti a incrementare la sostenibilità ambientale dell’infrastruttura aeroportuale, con particolare attenzione alla riduzione dell’inquinamento idrico.
Resumo:
La continua e crescente esigenza da parte dei gestori delle reti stradali ed autostradali di contenere i costi di gestione e manutenzione, ha da tempo impegnato l'industria delle pavimentazioni nell'individuazione di metodi innovativi, in grado di aumentare la redditività dei budget predisposti per il ripristino della sede stradale. Il presente lavoro di tesi si propone di approfondire tale argomento e in particolare di indagare l’impiego di terre decoloranti esauste all'interno di miscele bituminose drenanti per strati di usura. Il riutilizzo di queste terre porterebbe a risparmiare risorse naturali come il filler calcareo e diminuire i volumi che vengono smaltiti in discarica. È stato osservato che il filler bentonitico digestato può essere utilizzato nel confezionamento di miscele bituminose per strati di usura drenanti e fonoassorbenti con prestazioni simili o addirittura superiori alle equivalenti con filler calcareo tradizionale. Le prove condotte non hanno evidenziato nessun deterioramento delle caratteristiche meccaniche. Si ricorda che sono necessari studi circa il drenaggio del legante e il comportamento a fatica delle miscele bituminose in relazione alle fasi di esercizio dei materiali. Sulla base delle considerazioni elaborate si può affermare che nel caso in esame l'impiego del filler bentonitico digestato consente di risparmiare una risorsa naturale come il filler calcareo, a parità di inerti e legante nella miscela. Inoltre, si ha un vantaggio dal punto di vista economico, poiché meno volumi di questo materiale vengono smaltiti in discarica.
Resumo:
Il crescente fabbisogno energetico mondiale, dovuto essenzialmente al rapido incremento di popolazione originatosi nel secolo scorso, unitamente alla necessità di ridurre le emissioni di anidride carbonica, porta a ricercare continuamente nuove fonti primarie di energia nonché metodi innovativi per il recupero di quest’ultima da materiali di scarto. I Cicli Rankine a fluido Organico (Organic Rankine Cycle) rappresentano in questo senso una tecnologia emergente capace di rivoluzionare il concetto di risparmio energetico. In questa tesi viene effettuato uno studio dettagliato della tecnologia ORC, che mira ad identificarne i principali vantaggi e le maggiori problematiche, con particolare riferimento ad un caso di studio concreto, riguardante l’installazione di un impianto di recupero energetico da fumi di combustione all’interno di uno stabilimento di produzione di nero di carbonio. Il cuore della tesi è rappresentato dall’individuazione e dall’analisi dettagliata delle alternative impiantistiche con cui il recupero energetico può essere realizzato. Per ognuna di esse, dopo una breve spiegazione, viene effettuato il calcolo dell’energia elettrica prodotta annualmente con l’ausilio un simulatore di processo. Successivamente vengono esposte le proposte ricevute dai fornitori interpellati per la fase di progettazione di base dell’impianto di recupero energetico. Nell’ultima parte della tesi viene presentata la simulazione fluidodinamica del camino di una delle linee di produzione dell’impianto di Ravenna, effettuata utilizzando un codice CFD e mirata alla verifica dell’effettiva quantità di calore recuperato dai fumi e dell’eventuale presenza di condense lungo la ciminiera. I risultati ottenuti mostrano che la tecnologia ORC, utilizzata per il recupero energetico in ambito industriale, possiede delle grosse potenzialità. La massimizzazione dei vantaggi derivanti dall’utilizzo di questi sistemi è tuttavia fortemente condizionata dalla capacità di gestire al meglio l’integrazione degli impianti di recupero all’interno dei processi produttivi esistenti.
Resumo:
Le grandi catene di distribuzione, per sviluppare strategie commerciali sempre più efficaci, sono interessate a comprendere il percorso che ogni cliente effettua all’interno del punto vendita, che reparti visita, il tempo di permanenza in un’area specifica ecc… Quindi è stato necessario trovare un sistema per localizzare e tracciare un cliente all’interno di un ambiente chiuso (indoor position). Prima di tutto ci si è concentrati sulla ricerca e sviluppo di una nuova idea che potesse superare gli ostacoli delle soluzioni attualmente in commercio. Si è pensato di sostituire le tessere punti del punto vendita con delle tessere bluetoothLE e di creare un sistema di posizionamento al chiuso utilizzando la stessa logica di funzionamento del GPS per gli ambienti aperti. Il ricevitore è la tessera BLE posseduta dal cliente e i satelliti sono tre device Android dotati di un’app specifica per rilevare il segnale radio (RSSI) emesso dalla tessera ogni secondo. Le rilevazioni dei tre device Android sono successivamente trasferite all’interno di una web application che si occupa di elaborare i dati tramite il processo di trilaterazione. L’output sono le coordinate x,y di ciascuna tessera in ogni secondo di visita all’interno del punto vendita. Questi dati sono infine utilizzati per mostrare graficamente il percorso effettuato dal cliente, l’orario di ingresso e di uscita e il tempo di permanenza. Riepilogando, il progetto comprende una fase di ricerca e intuizione di una nuova idea, una fase di progettazione per traslare i meccanismi del funzionamento GPS all’utilizzo in un ambiente chiuso, una fase di implementazione dell’app e della web application e infine una fase di sperimentazioni sul campo che si concluderà dopo la laurea con test reali in un supermercato della zona.
Resumo:
L'elaborato presenta i principali risultati ottenuti nell'ambito della dinamica galattica, con una iniziale panoramica sulla morfologia delle galassie, seguita dall'analisi dei moti delle loro componenti più importanti. I capitoli IV e V sono dedicati allo studio degli effetti dinamici interni nelle galassie a spirale e nelle ellittiche. La tesi si conclude con una trattazione delle caratteristiche dei buchi neri centrali e la loro influenza sulla cinematica della galassia.
Resumo:
Guidata dall'interesse per lo studio della fissione nucleare, per molto tempo la ricerca nel campo dei neutroni si è concentrata su energie medio-basse (E<20 MeV) mentre per la regione a più alte energie le informazioni risultavano scarse o mancanti. Recentemente, invece, si è sviluppato un nuovo interesse per i Neutroni di Alta Energia, utilizzabili nelle terapie mediche per la cura di tumori, e di grande importanza per la radioprotezione e la trasmutazione delle scorie radioattive derivanti da produzione di energia nucleare. Queste applicazioni richiedono precisi fasci di neutroni quasi-monoenergetici, con energie dai 20 a qualche centinaia di MeV, servono perciò misurazioni intese a determinare le caratteristiche del fascio e atte a ottenere valori precisi della sezione d'urto relativa ai processi innescati da neutroni veloci. La sezione d'urto di un certo processo nucleare si deduce dalla misura del numero di eventi acquisiti per unità di tempo da un rivelatore, conoscendo l'efficienza di questo, l'intensità del fascio che incide nel bersaglio e le caratteristiche del target. Diventa, quindi, determinante la conoscenza dell'intensità del fascio dei neutroni, anche nel caso di un intervallo energetico ampio, come quello prodotto al CERN dalla facility n_TOF, che possiede energie che vanno dal meV al GeV. Sulla base di queste motivazioni, in questo lavoro di tesi, si vuole proporre un prototipo semplice di rivelatore per Neutroni di Alta Energia e si presenta uno studio preliminare del primo test sotto fascio, focalizzando l'attenzione sulla massima energia misurabile.
Resumo:
Nelle matrici ambientali sono spesso presenti xenoestrogeni, molecole sintetiche o di origine naturale ad attività estrogenica in grado di alterare il normale equilibrio ormonale di organismi esposti, incidendo negativamente su alcune funzioni vitali come la riproduzione ed il metabolismo. Diverse sostanze chimiche presenti in ambiente, tra cui alcune molecole ad attività estrogenica, sono anche potenziali composti genotossici, in grado, cioè, di interagire con il DNA ed esercitare effetti anche a lungo termine come l’insorgenza di tumori nei vertebrati, uomo compreso. L’obiettivo del presente lavoro di tesi è stato quello di mettere a punto ed utilizzare due saggi biologici, il saggio E-screen ed il test dei micronuclei, per valutare la presenza di xenoestrogeni e composti genotossici in campioni di acque prelevate prima e dopo i trattamenti di potabilizzazione, utilizzando cellule MCF-7 di adenocarcinoma mammario come modello sperimentale in vitro. Le indagini biologiche sono state condotte sulla base di una convenzione di ricerca con la Società acquedottistica Romagna Acque- Società delle fonti e hanno previsto tre campagne di monitoraggio. I campioni di acqua sperimentale, raccolti prima e dopo i trattamenti presso diversi impianti di potabilizzazione, sono stati preventivamente filtrati, estratti in fase solida, fatti evaporare sotto leggero flusso di azoto, ed infine, saggiati sulle cellule. Il test E-screen, di cui abbiamo dimostrato un elevato livello di sensibilità, ha permesso di escludere la presenza di composti ad attività estrogenica nei campioni esaminati. Allo stesso modo, i risultati del test dei micronuclei hanno dimostrato l’assenza di effetti genotossici, confermando la buona qualità delle acque analizzate. Nell’ambito delle attività di monitoraggio, le indagini biologiche risultano essenziali per la valutazione di una potenziale contaminazione ambientale, in quanto forniscono informazioni anche quando non sono state condotte analisi chimiche. Inoltre, anche quando le analisi chimiche siano state condotte, i test biologici informano della potenzialità tossica di una matrice causata eventualmente da sostanze non oggetto del saggio chimico. Infine, i test biologici permettono di identificare eventuali sinergie tra più contaminanti presenti nelle acque, affermandosi come test da condurre in maniera complementare ai saggi chimici. I test biologici come quelli impiegati nel lavoro di tesi sono molto sensibili ed informativi, ma necessitano della definizione di protocolli standardizzati per garantirne un’uniforme applicazione alle acque ad uso potabile, almeno a livello nazionale.
Resumo:
Il Cryptolocker è un malware diffuso su scala globale appartenente alla categoria ransomware. La mia analisi consiste nel ripercorrere le origini dei software maligni alla ricerca di rappresentanti del genere con caratteristiche simili al virus che senza tregua persevera a partire dal 2013: il Cryptolocker. Per imparare di più sul comportamento di questa minaccia vengono esposte delle analisi del malware, quella statica e quella dinamica, eseguite sul Cryptolocker (2013), CryptoWall (2014) e TeslaCrypt (2015). In breve viene descritta la parte operativa per la concezione e la configurazione di un laboratorio virtuale per la successiva raccolta di tracce lasciate dal malware sul sistema e in rete. In seguito all’analisi pratica e alla concentrazione sui punti deboli di queste minacce, oltre che sugli aspetti tecnici alla base del funzionamento dei crypto, vengono presi in considerazione gli aspetti sociali e psicologici che caratterizzano un complesso background da cui il virus prolifica. Vengono confrontate fonti autorevoli e testimonianze per chiarire i dubbi rimasti dopo i test. Saranno questi ultimi a confermare la veridicità dei dati emersi dai miei esperimenti, ma anche a formare un quadro più completo sottolineando quanto la morfologia del malware sia in simbiosi con la tipologia di utente che va a colpire. Capito il funzionamento generale del crypto sono proprio le sue funzionalità e le sue particolarità a permettermi di stilare, anche con l’aiuto di fonti esterne al mio operato, una lista esauriente di mezzi e comportamenti difensivi per contrastarlo ed attenuare il rischio d’infezione. Vengono citati anche le possibili procedure di recupero per i dati compromessi, per i casi “fortunati”, in quanto il recupero non è sempre materialmente possibile. La mia relazione si conclude con una considerazione da parte mia inaspettata: il potenziale dei crypto, in tutte le loro forme, risiede per la maggior parte nel social engineering, senza il quale (se non per certe categorie del ransomware) l’infezione avrebbe percentuali di fallimento decisamente più elevate.
Resumo:
Questa tesi affronta uno dei principali argomenti trattati dalla finanza matematica: la determinazione del prezzo dei derivati finanziari. Esistono diversi metodi per trattare questo tema, ma in particolare vengono illustrati i metodi che usano la trasformata di Fourier. Questi ultimi infatti ci permettono di sostituire il calcolo dell'attesa condizionata scontata, con il calcolo dell'integrale della trasformata di Fourier, in quanto la funzione caratteristica, cioè la trasformata di Fourier della funzione densità, è più trattabile rispetto alla funzione densità stessa. Vengono in primo luogo analizzate alcune importanti formule di valutazione e successivamente implementate, attraverso il software Mathematica. I modelli di riferimento utilizzati per l'implementazione sono il modello di Black-Scholes e il modello di Merton.
Resumo:
Definizioni e enunciati riguardo al gruppo fondamentale, alle azioni di gruppo, ai rivestimenti, alle varietà topologiche, differenziabili e riemanniane, alle isometrie e ai gruppi discreti di isometrie. Approfondimento riguardo alle superfici connesse, compatte e orientabili con classificazione topologica, definizione di curvatura gaussiana con classificazione delle superfici in base al valore della curvatura, teorema di Killing-Hopf, teorema di uniformizzazione, enunciato del teorema che verrà dimostrato: la sfera è l'unica superficie connessa, compatta e orientabile ellittica, il toro è l'unica piatta, le somme connesse di g tori (g>1) sono iperboliche. Descrizione del piano euclideo con relativa metrica, descrizione delle sue isometrie, teorema di Chasles con dimostrazione, dimostrazione del toro come unica superficie connessa, compatta e orientabile piatta. Descrizione della sfera con relativa metrica, descrizione delle sue isometrie, dimostrazione della semplicità di SO(3), dimostrazione della sfera come unica superficie connessa, compatta e orientabile ellittica. Descrizione di due modelli del piano iperbolico, descrizione delle sue isometrie, dimostrazione del fatto che le somme connesse di g tori (g>1) sono iperboliche. Definizione di gruppo Fuchsiano e di spazio di Teichmuller.