927 resultados para utilizzo dei sensori multispettrali nel monitoraggio degli incendi, sensore ASTER, telerilevamento
Resumo:
La cosmologia ha come scopo lo studio di origine ed evoluzione dell’Universo, per averne una comprensione generale attraverso le leggi fisiche conosciute. Il modello del Big Bang, di cui si dà la descrizione teorica nel capitolo 1, è una delle formulazioni più recenti di teoria che mira a spiegare l’inizio e la successiva evoluzione dell’Universo, fino ad avanzare anche ipotesi sul suo destino futuro; è inoltre il modello generalmente accettato dalla comunità scientifica in quanto, di tutti i modelli proposti nel corso degli anni, è quello con più riscontri sperimentali e che meglio si trova in accordo con le osservazioni. I principali successi del modello vengono trattati nel capitolo 2. In particolare: si tratterà di redshift e legge di Hubble, collegati all’espansione dell’Universo, importante prova dell’attendibilità del modello del Big Bang; della radiazione cosmica di fondo, scoperta negli anni ’60 quasi per caso e poi ricondotta a ipotesi teoriche già avanzate anni prima nelle prime formulazioni del modello; della nucleosintesi primordiale, che spiega l’abbondanza attuale dei principali costituenti dell’Universo, H ed He, cosa che altrimenti non sarebbe spiegabile se si considerasse soltanto la formazione di tali elementi nelle stelle. Ovviamente anche questo modello, come si vede nel capitolo 3, non manca di problemi, a cui si è trovata una risoluzione parziale o comunque non definitiva; in questa sede tuttavia, per ragioni di spazio, tali problemi e la loro soluzione verranno soltanto accennati. Si accennerà al problema dell’Universo piatto e al problema dell’orizzonte, e a come essi possano essere spiegati introducendo il concetto di inflazione. Infine, nel capitolo 4, si accenna anche alla materia oscura, soprattutto per quanto riguarda le evidenze sperimentali che ne hanno permesso la scoperta e le prove successive che ne confermano l’esistenza. Tuttora ne ignoriamo natura e composizione, visto che a differenza della materia ordinaria non emette radiazione elettromagnetica, ma i suoi effetti gravitazionali sono evidenti ed è estremamente difficile che la sua esistenza possa essere messa in discussione.
Resumo:
Lo scopo di questo lavoro è analizzare se e in quali modi il linguaggio metaforico viene utilizzato nella lingua giuridica italiana e tedesca. In particolare, l’analisi verterà su testi giuridici specifici, quali leggi e sentenze. In un primo momento verrà chiarito che cosa s’intende quando si parla di metafora e verrà illustrato come la concezione di metafora è cambiata nel corso degli anni. Saranno illustrate, quindi, le principali teorie sulla metafora, a partire da Aristotele, colui che coniò il termine, arrivando fino alle teorie di linguisti e filosofi dell’età moderna, facendo particolarmente attenzione all’opera Metaphors We Live By pubblicata nel 1980 dagli studiosi americani Lakoff e Johnson, la quale rappresenta un approccio cognitivista allo studio della metafora. In seguito, il lavoro si concentrerà sulla relazione tra metafora e linguaggi specialistici, citando le famose teorie di Boyd e di Kuhn, per poi soffermarsi sulle posizioni sul linguaggio metaforico nei linguaggi specialistici di autori tedeschi e italiani rispetto alle proprie lingue. Rimanendo in questo ambito, verrà approfondito, dopo una breve illustrazione delle caratteristiche della lingua giuridica, il rapporto tra la metafora e, appunto, la lingua giuridica, fornendo le teorie di linguisti e filosofi tedeschi e italiani, ma anche di giuristi stessi. Si passerà poi al cuore di questo lavoro, ovvero l’analisi dei testi giuridici, in cui si vedrà secondo quali criteri e con che scopi gli autori dei testi presi in esame sfruttano il linguaggio metaforico. L’analisi verterà su testi che Mortara Garavelli definisce testi normativi e testi applicativi, ma siccome l’autrice cita anche testi che definisce interpretativi, verrà condotto anche un confronto tra l’analisi compiuta in questo lavoro sui primi due tipi di testi giuridici e l’analisi compiuta da Veronesi in Wege, Gebäude, Kämpfe: Metaphern im deutschen und italienischen rechtswissenschaftlichen Diskurs sui testi di tipo interpretativo.
Resumo:
La presente ricerca ha un duplice obiettivo. Primo, individuare i modi in cui lingue e identità culturali diverse sono state rappresentate al cinema. Secondo, identificare le diverse strade imboccate dai professionisti del doppiaggio italiano quando si trovano a confrontarsi con un film in cui si parlano più lingue. La ricerca propone un approccio multidisciplinare che combina i contributi teorici sviluppati nel campo degli studi di traduzione audiovisiva con le modalità di analisi più comunemente utilizzate dalla semiotica del cinema. L'analisi si basa su un campione di 224 film multilingue prodotti dall'inizio degli anni Trenta alla fine degli anni Duemila. Particolare attenzione viene indirizzata al quadro teorico all'interno del quale viene interpretato il ruolo che il multilinguismo assume al cinema. Vengono identificate tre funzioni principali: conflitto, confusione e resa realistica. Un altro elemento chiave nell'analisi è costituito dal genere cinematografico prevalente a cui è possibile ricondurre ciascuno dei film selezionati. Sono individuati tre generi principali: il film drammatico, la commedia e il thriller. Nel film drammatico il multilinguismo agisce come un veicolo che produce e accentua il conflitto, mentre nella commedia esso di solito diventa un dispositivo comico che crea confusione e umorismo. Nel cinema thriller, invece, il multilinguismo funziona essenzialmente come un veicolo di suspense. Per quanto riguarda le soluzioni traduttive adottate nel doppiaggio italiano del cinema multilingue, sono rilevate tre macro-strategie: la conservazione, la neutralizzazione e la riduzione dell'originale dimensione multilingue. Ciascuna di queste tre strategie è passata a vaglio critico. Se nel primo caso si tratta di un tentativo di riprodurre fedelmente le originali situazioni multilingue rappresentate nel film, negli altri due casi si tratta di soluzioni che risentono fortemente delle specificità del doppiaggio come modalità di traduzione degli audiovisivi (fattori ideologici ed economici, nonché il problema tecnico dell'armonizzazione delle voci per i personaggi bilingue).
Resumo:
La tesi tratta dell'importanza dei controlli di qualità e di sicurezza elettrica che devono essere effettuati per garantire l'integrità nel corso degli anni delle apparecchiature elettromedicali. In particolare ho studiato il funzionamento, i principi fisici e i limiti del pulsossimetro, il dispositivo medico in grado di misurare indirettamente la saturazione dell'ossigeno nel sangue.
Resumo:
Nato in Abcasia ma vissuto a Mosca per quasi tutta la sua vita, Fazil' Iskander è uno degli autori più importanti del panorama letterario russo contemporaneo. La sua produzione letteraria vanta di un gran numero di poesie, romanzi, racconti e saggi pubblicati a partire dagli anni '60 fino quasi ai giorni nostri. Il genere letterario da lui prediletto è la narrativa satirica. Nei suoi romanzi e nei suoi racconti egli mette a nudo e deride ogni aspetto e ogni esponente della realtà sovietica. Il riso, nelle sue forme principali quali ironia, umorismo, parodia, diventa l'arma con cui lo scrittore affronta la dittatura, annientandone l'autorevolezza e il terrore che essa incute nelle persone. Fazil' Iskander manifesta una una grande forza, indipendenza e libertà spirituale nei confronti del regime, grazie al suo atteggiamento ironico nei confronti della realtà e grazie al suo bagaglio culturale abcaso. I costumi e le tradizioni abcase vengono infatti costantemente esaltate in quanto esempio di cultura autentica. Gli abcasi sono i protagonisti dei suoi racconti e vengono ritratti perennemente impegnati in una lotta silenziosa nei confronti del regime. In questa tesi abbiamo voluto esaminare gli aspetti del riso e della satira in tre opere di Iskander, abbiamo cercato di comprendere i meccanismi e i procedimenti comici con cui egli smonta e denigra il sistema sovietico. Nel primo capitolo abbiamo analizzato "Sozvezdie kozlotura" ("La costellazione del caprotoro"), nel secondo capitolo, il capolavoro di Iskander "Sandro iz Chegema" ("Sandro di Chegem") e nel terzo, "Kroliki i udavy" ("I conigli e i boa"). Queste opere, oltre a esaminare e deridere ogni aspetto della dittatura sovietica, ci offrono inoltre una panoramica completa del riso iskanderiano e della sua evoluzione nel corso degli anni.
Resumo:
Uno dei maggiori obiettivi della ricerca nel campo degli acceleratori basati su interazione laser-plasma è la realizzazione di una sorgente compatta di raggi x impulsati al femtosecondo. L’interazione tra brevi impulsi laser e un plasma, a energie relativistiche, ha recentemente portato a una nuova generazione di sorgenti di raggi x con le proprietà desiderate. Queste sorgenti, basate sulla radiazione emessa da elettroni accelerati nel plasma, hanno in comune di essere compatte, produrre radiazione collimata, incoerente e impulsata al femtosecondo. In questa tesi vengono presentati alcuni metodi per ottenere raggi x da elettroni accelerati per interazione tra laser e plasma: la radiazione di betatrone da elettroni intrappolati e accelerati nel cosiddetto “bubble regime”, la radiazione di sincrotrone da elettroni posti in un ondulatore convenzionale con lunghezza dell’ordine dei metri e la radiazione ottenuta dal backscattering di Thomson. Vengono presentate: la fisica alla base di tali metodi, simulazioni numeriche e risultati sperimentali per ogni sorgente di raggi x. Infine, viene discussa una delle più promettenti applicazioni fornite dagli acceleratori basati su interazione tra laser e plasma: il Free-electron laser nello spettro dei raggi x, capace di fornire intensità 108-1010 volte più elevate rispetto alle altre sorgenti.
Resumo:
L’esplosione della crisi nel 2007 ha contribuito alla diffusione di numerosi termini e concetti afferenti al dominio nella finanza strutturata non solo nelle pagine dei quotidiani specializzati, ma anche di quelli generalisti, producendo uno straniante «sentimento neologico» che ha accresciuto il senso di inaccessibilità e soggezione che in molti nutrono nei riguardi delle “cose della finanza” e delle notizie economiche, percepite come ostiche e incomprensibili. Questo lavoro mira a dimostrare che le cause di questo imperante senso di smarrimento di fronte all’informazione economica sono da addurre a più fattori: alla comune scarsa dimestichezza con il linguaggio e le “cose della finanza” dei cittadini; alla complessità dei concetti che i termini in questione veicolano e alla maniera in cui essi vengono presentati dalla vulgata giornalistica. Questa tesi si articola in quattro capitoli: nel primo si discute del tirocinio svolto presso la DGT della Commissione Europea, che ha fornito degli utili spunti per la stesura del presente lavoro; nel secondo si evidenzia l’importanza di una corretta educazione finanziaria per la formazione di una cittadinanza consapevole, in grado alimentare un sistema finanziario sano. Nel terzo capitolo si discute di finanza strutturata, volgendo particolare attenzione al CDO, di cui anche la Consob ha sottolineato l’intrinseca complessità e che ha assunto un ruolo da protagonista nell’esplosione della crisi dei mutui subprime. Nel quarto capitolo si delinea un breve quadro dell’informazione finanziaria in Italia e in Germania; mediante l’analisi di due corpora comparabili e diacronici si mira, infine, a osservare in che modo i giornali, nel corso degli anni, hanno veicolato il concetto che sottende al termine CDO rintracciando, contestualmente, similarità e differenze tra la stampa generalista e quella specializzata e tra i quotidiani tedeschi e quelli italiani.
Resumo:
Oggi sappiamo che la materia ordinaria rappresenta solo una piccola parte dell'intero contenuto in massa dell'Universo. L'ipotesi dell'esistenza della Materia Oscura, un nuovo tipo di materia che interagisce solo gravitazionalmente e, forse, tramite la forza debole, è stata avvalorata da numerose evidenze su scala sia galattica che cosmologica. Gli sforzi rivolti alla ricerca delle cosiddette WIMPs (Weakly Interacting Massive Particles), il generico nome dato alle particelle di Materia Oscura, si sono moltiplicati nel corso degli ultimi anni. L'esperimento XENON1T, attualmente in costruzione presso i Laboratori Nazionali del Gran Sasso (LNGS) e che sarà in presa dati entro la fine del 2015, segnerà un significativo passo in avanti nella ricerca diretta di Materia Oscura, che si basa sulla rivelazione di collisioni elastiche su nuclei bersaglio. XENON1T rappresenta la fase attuale del progetto XENON, che ha già realizzato gli esperimenti XENON10 (2005) e XENON100 (2008 e tuttora in funzione) e che prevede anche un ulteriore sviluppo, chiamato XENONnT. Il rivelatore XENON1T sfrutta circa 3 tonnellate di xeno liquido (LXe) e si basa su una Time Projection Chamber (TPC) a doppia fase. Dettagliate simulazioni Monte Carlo della geometria del rivelatore, assieme a specifiche misure della radioattività dei materiali e stime della purezza dello xeno utilizzato, hanno permesso di predire con accuratezza il fondo atteso. In questo lavoro di tesi, presentiamo lo studio della sensibilità attesa per XENON1T effettuato tramite il metodo statistico chiamato Profile Likelihood (PL) Ratio, il quale nell'ambito di un approccio frequentista permette un'appropriata trattazione delle incertezze sistematiche. In un primo momento è stata stimata la sensibilità usando il metodo semplificato Likelihood Ratio che non tiene conto di alcuna sistematica. In questo modo si è potuto valutare l'impatto della principale incertezza sistematica per XENON1T, ovvero quella sulla emissione di luce di scintillazione dello xeno per rinculi nucleari di bassa energia. I risultati conclusivi ottenuti con il metodo PL indicano che XENON1T sarà in grado di migliorare significativamente gli attuali limiti di esclusione di WIMPs; la massima sensibilità raggiunge una sezione d'urto σ=1.2∙10-47 cm2 per una massa di WIMP di 50 GeV/c2 e per una esposizione nominale di 2 tonnellate∙anno. I risultati ottenuti sono in linea con l'ambizioso obiettivo di XENON1T di abbassare gli attuali limiti sulla sezione d'urto, σ, delle WIMPs di due ordini di grandezza. Con tali prestazioni, e considerando 1 tonnellata di LXe come massa fiduciale, XENON1T sarà in grado di superare gli attuali limiti (esperimento LUX, 2013) dopo soli 5 giorni di acquisizione dati.
Resumo:
In questo lavoro, svolto presso l'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (I.R.S.T.) (I.R.C.C.S) di Meldola, si sono studiate le caratteristiche di un tomografo Philips Brilliance iCT 256 strati, con l'obiettivo di individuare le variazioni di qualità delle immagini e di dose in funzione dei parametri di acquisizione dello strumento, al fine di una successiva ottimizzazione dei protocolli degli esami tomografici. Le valutazioni sono state fatte sul tomografo multistrato Philips mediante uso di diversi fantocci e dosimetri, seguendo le linee guida della pubblicazione per il controllo di qualità in tomografia computerizzata dell'International Atomic Energy Agency (IAEA). Si è utilizzato il fantoccio Catphan per la caratterizzazione della qualità dell'immagine, acquisendo immagini sia in modalità assiale che spirale e variando parametri di acquisizione quali spessore di strato, kV, mAs e pitch. Per le varie combinazioni di questi parametri sono state misurate, mediante l'utilizzo dei software ImageJ ed ImageOwl, grandezze oggettive quali risoluzione spaziale, risoluzione a basso contrasto e rumore dell'immagine acquisita. Due fantocci di polimetilmetacrilato (PMMA) head e body sono serviti, insieme ad una camera a ionizzazione di tipo pencil, per la misura di indici di dose per la tomografia computerizzata (CTDI). L'irraggiamento di questi strumenti è stato effettuato a diversi valori di tensione del tubo radiogeno e ha permesso di confrontare i valori CTDI misurati con quelli forniti dal tomografo. Si sono quindi calcolate le dosi efficaci di alcuni protocolli della macchina per poi confrontarle con livelli di riferimento diagnostici (DRL), strumenti utilizzati con l'obiettivo di raggiungere valori di dose adeguati per lo scopo clinico dell'esame. Come ulteriore valutazione dosimetrica, si è utilizzato il fantoccio antropomorfo Rando, in cui sono stati inseriti dei dosimetri a termoluminescenza (TLD) per la misura della dose organo. Dai risultati si osserva un andamento inversamente proporzionale tra tensione del tubo radiogeno e contrasto dell'immagine. Impostando valori alti di kV si ottiene però un'immagine meno rumorosa. Oltre alla tensione del tubo, si è valutato come anche lo spessore di strato e la corrente influiscano sul rumore dell'immagine. I risultati ottenuti dimostrano che i valori dei parametri oggettivi di qualità delle immagini rientrano nei limiti di attendibilità, così come i valori di CTDI visualizzati dal tomografo. Lo studio della dipendenza di questi parametri oggettivi dalle impostazione di scansione permette di ottimizzare l'acquisizione TC, ottenendo un buon compromesso fra dose impartita e qualità dell'immagine.
Resumo:
La fissazione esterna ha subito una forte evoluzione nel corso degli anni, passando dall’essere una tecnica utilizzata esclusivamente nella stabilizzazione delle fratture, fino a diventare una risorsa importante in ortopedia ricostruttiva per il trattamento di molte patologie ossee e dei tessuti molli. Il prototipo di fissatore esterno monolaterale articolato Kore (Citieffe S.r.l.), oggetto di questo studio, consente di effettuare correzione di deformità angolari e piccoli allungamenti su ossa lunghe. Il lavoro sperimentale si è concentrato sul testare le prestazioni meccaniche del dispositivo e della sua componentistica, con l'obiettivo di mettere in evidenza eventuali problemi. I risultati sono stati confrontati con quelli ottenuti in prove realizzate precedentemente in azienda, e con quelli ricavati su dispositivi concorrenti da altri autori. Sono state svolte una prova di compressione assiale statica, una prova a fatica di compressione assiale, una prova a flessione a quattro punti ed una prova di regolazione dinamometrica sul meccanismo di attuazione del dispositivo. E’ stata poi progettata una configurazione per studiare le principali caratteristiche dei morsetti. Nel caso del morsetto a compensazione si è verificata l'effettiva capacità di scorrimento del morsetto, mentre nel morsetto a traliccio, dotato di un meccanismo di snodo, ne viene accertata la tenuta. Al termine dei test, in base ai risultati raccolti dalle prove meccaniche e dalle prove svolte su osso artificiale, sono state fatte valutazioni riguardanti alcune modifiche da apportare al prototipo. Per quanto riguarda il dispositivo dovrà essere ridotta la dimensione del corpo centrale, al fine di avere un dispositivo più duttile, leggero e vicino al corpo. Questa modifica inoltre limiterà l'influenza della flessione delle pins sul comportamento meccanico del fissatore, migliorandone le prestazioni. Relativamente al morsetto a traliccio dovrà essere ridotta la lunghezza dello snodo, per limitare lo sforzo sulla vite di serraggio del meccanismo. Nel morsetto a compensazione dovrà essere modificato il profilo, per garantire un migliore scorrimento.
Il processo di compostaggio - studio di un metodo alternativo di screening e valutazione del compost
Resumo:
Il processo di compostaggio è il metodo più antico ed al tempo stesso innovativo di trasformazione dei rifiuti. La trasformazione in impianti di compostaggio industriale ricrea lo stesso processo semplice ma in scala maggiore processando molte tonnellate/anno di rifiuto con particolare riguardo a quello proveniente da raccolta differenziata. Il presente elaborato, oltre ad illustrare le nuove tecnologie di produzione nelle realtà locali della zona Romagnola, ha inteso indagare un aspetto alternativo ed innovativo di valutazione del compost. A supporto di quanto già previsto alla specifica normativa di settore e nell'ottica dell'ottimizzazione del processo, è stata valutata la possibilità di uso della tecnica analitica di microestrazione in fase solida (SPME) e della tecnica strumentale con naso elettronico. Si è inteso verificare anche come l'utilizzo di carbone vegetale, aggiunto alla fase di maturazione, possa apportare un contributo significativo nel controllo delle emissioni odorigene, problematica diffusa nelle aree limitrofe ad impianti di compostaggio. L'utilizzo delle tecniche di estrazione in fase solida (SPME) ha dimostrato che durante il processo le componenti odorigene tendono a ridursi notevolmente modificandosi in modo apprezzabile e valutabile mediante analisi GC-MS. L'aggiunta di carbone vegetale alla fase di maturazione contribuisce alla riduzione delle emissioni odorigene. I risultati ottenuti evidenziano come l'utilizzo dei sistemi proposti possa portare ad un'economicità qualora si riscontrassero tempi di maturazione variabili per le tipologie di materiale trattato, riducendo così i tempi di permanenza nei tunnel di maturazione e come le tecniche SPME e naso elettronico possano essere accoppiate per ottenere risultati complementari così da costruire un'informazione complessiva completa. Possibili sviluppi dello studio potrebbero essere improntati alla verifica puntuale del grado di maturazione in relazione alla tipologia del materiale in ingresso ed alla stagionalità nonché all'utilizzo di tali tecniche ad altre matrici e nell'ambito dell'individuazione della presenza di composti indesiderati in matrici ambientali.
Resumo:
Lo scopo di questo lavoro è costruire uno strumento per valutare il senso del numero negli studenti di due scuole secondarie di primo grado, l'una che predilige una didattica di stampo tradizionale, l'altra innovativa. Dopo aver descritto il senso del numero nelle quattro componenti cognitive e comportamentali individuate si analizzano i risultati dei suddetti studenti ad un test, composto da quesiti presi dalle valutazioni nazionali INVALSI ed internazionali TIMSS, i quali conducono ad osservare se e come una di queste ultime componenti è prevalente rispetto ad un'altra, e se il senso del numero può andare perso nel corso degli anni se si privilegia un approccio formale all'aritmetica piuttosto che la creazione di ambienti di apprendimento significativi che possano stimolare la creatività, la scoperta e la coproduzione di conoscenza.
Resumo:
Molti concetti basilari dell'Analisi Matematica si fondano sulla definizione di limite, della quale si è avuta una formulazione rigorosa solo nel XIX secolo, grazie a Cauchy e a Weierstrass. Il primo capitolo ripercorre brevemente le tappe storiche di un percorso lungo e difficile, durato circa 2000 anni, evidenziando le difficoltà dei grandi matematici che si sono occupati dei concetti infinitesimali. Nel secondo capitolo vengono esposte le possibili cause delle difficoltà degli studenti nell'apprendimento dei limiti. Nel terzo capitolo vengono descritte ed analizzate le risposte degli studenti liceali ed universitari ad un questionario sui limiti.
Resumo:
Le variabili ambientali e lo sfruttamento della pesca sono dei possibili fattori nel determinare la struttura della comunità demersale. L’area di studio è il Golfo di Antalya, con un area aperta ed una chiusa ad ogni attività di pesca, il periodo di studio ha coperto tre stagioni (primavera, estate, autunno). Lo scopo è quello di delineare un quadro generale sulla distribuzione spaziale e temporale delle risorse alieutiche demersali in quest’area. In questo lavoro di tesi la PCA è stata usata al fine di determinare le variabili ambientali (ossigeno, salinità, temperatura, pH, materia sospesa) che determinano maggiormente la differenza tra le stazioni, tecniche di analisi multivariata hanno invece indagato una possibile variazione su scala spaziale e temporale dei parametri abiotici. La Cluster Analysis effettuata sui dati di abbondanza ha delineato quattro raggruppamenti principali, due ad una profondità minore di 100 m e due ad una profondità maggiore (40% di similarità). Questi risultati sono confermati dall’analisi MDS. L’analisi SIMPER ha messo in evidenza le specie che maggiormente incidono sulla differenza tra strati di profondità. Gli indici di biodiversità sono stati calcolati per indagare la diversità e la variabilità temporale e spaziale della comunità demersale. Due procedure la BIO-ENV e la DistLM (Distance-based linear models) sono state effettuate per individuare le variabili abiotiche che potrebbero essere responsabili dei diversi raggruppamenti nella struttura del popolamento demersale. Le specie commerciali: Mullus barbatus, Upeneus moluccensis, Upeneus pori sono state prese come oggetto per la ricerca di possibili effetti della pesca a livello di popolazione. Per i dati di abbondanza e di biomassa di queste specie è stata eseguita l’analisi multivariata MANOVA (Multivariate Analysis of Variance) al fine di trovare eventuali variazioni dovute ai fattori profondità, stagione e transetto. Per ogni specie è stata valutata la sex ratio. Il metodo Bhattacharya ha permesso di determinare le classi di età e la loro abbondanza. In ultimo la relazione peso-lunghezza è stata ricavata separatamente per gli individui maschi e femmine al fine di determinare il tipo di crescita per ogni sesso.
Resumo:
Scopo della tesi è la trattazione dei logaritmi a partire dalla storia di quest'ultimi, al loro sviluppo, fino ad arrivare alle diverse applicazioni dei logaritmi in svariate discipline. La tesi è strutturata in quattro capitoli, nel primo dei quali si parte analizzando quali istanze teoriche e necessità pratiche abbiano preparato la strada all'introduzione dei logaritmi. Vengono riportati alcuni passi del testo più importante dedicato da Nepero ai logaritmi, Mirifici Logarithmorum Canonis Constructio, la modifica ad opera di Henry Briggs e la diffusione dei logaritmi in gran parte dell' Europa. Nel secondo capitolo viene evidenziato il legame tra i logaritmi e la geometria dell'iperbole per poi passare alla trattazione dei primi studi sulla curva logaritmica. Nel terzo capitolo viene esaminata la controversia tra Leibniz e Bernoulli sul significato da attribuire ai logaritmi dei numeri negativi soffermandosi su come Eulero uscì da una situazione di stallo proponendo una teoria dei logaritmi dei numeri complessi. Nel quarto ed ultimo capitolo vengono analizzati i diversi utilizzi della scala logaritmica ponendo soprattutto l'attenzione sul regolo calcolatore, arrivando infine a mostrare le applicazioni dei logaritmi in altre discipline.