573 resultados para numeri reali, Weierstrass, Pincherle, Hurwitz
Resumo:
Questa tesi è incentrata sulla traduzione di un dossier in lingua francese diviso in due parti, pubblicate in due numeri successivi all’interno di una rivista settoriale per neuroscienziati francofoni. Nella fase di selezione del testo ho svolto il ruolo d’ipotetico editore italiano che gestisce una rivista per neuroscienziati italofoni e che vuole rendere disponibili all’interno della comunità neuroscientifica italiana contributi provenienti dall’estero sotto forma di dossier tematici. Nel primo capitolo ho analizzato il dossier basandomi sulla griglia di Tudor, un modello di analisi testuale ideato a scopi didattici per i corsi di traduzione che in questo caso si presta molto bene come strumento di riflessione sulle caratteristiche del testo source. Nel secondo capitolo valuto la macrostrategia traduttiva più idonea per la redazione del testo d’arrivo e approfondisco sia le conoscenze relative al dominio dei microtesti che costituiscono il dossier sia gli aspetti terminologici relativi ai termini inizialmente sconosciuti. Sempre in questo capitolo approfondisco l’analisi terminologica e propongo alcune schede terminologiche. Nel terzo capitolo presento la proposta di traduzione con testo di partenza a fronte. Infine nel quarto capitolo commento il processo traduttivo analizzando la fase di documentazione, la fase di ricerca terminologica e i principali problemi traduttivi.
Resumo:
Questa tesi affronta la tematica della trustworthiness dal punto di vista dell’utente, a partire dalla sua identità virtuale fino a considerare l’analisi dei parametri che un sito Web dovrebbe adottare perchè sia ritenuto affidabile dagli utilizzatori. Si individueranno quindi le criticità che rendono ancora la trustworthiness una variabile poco considerata nella progettazione di siti Web e gli eventuali accorgimenti e punti di forza che caratterizzano un ambiente di lavoro. La tesi presenta diversi casi esemplificativi di utilizzo, ovvero gli ambienti di commercio elettronico, gli ambienti che condizionano l’acquisto di un utente e i sistemi di knowledge sharing; tutte le analisi di affidabilità sono applicate a siti web che adottano modelli di approvvigionamento dati da parte degli utenti stessi, votazioni e giudizi, recensioni su prodotti e servizi, crowdsourcing di informazioni e di esperienze personali e collettive, basate su progetti di indagine commerciale, analisi e opinione di prodotti o servizi o informazioni condivise per lo sviluppo sociale. La tematica viene analizzata da questi tre punti di vista, ciascuno sotto l’ottica identitaria, di reputazione e di affidabilità. La letteratura, come esaminato in questa tesi, propone alcuni modelli che individuano criteri di valutazione dell’affidabilità dei siti web, su algoritmi già esistenti quindi su siti Web che possiedono sistemi di filtraggio del contenuto o sistemi di valutazione della reputazione o meccanismi di raccomandazione per individuare le intenzioni dell’utente; in altri casi vengono implementati modelli sperimentali e teorie basate su dataset esistenti, per ricercare soluzioni tangibili all’autenticazione di affidabilità di un sistema, compensando la carenza di sistemi di giudizio di trustworthiness su siti Web reali. Vengono proposti alcuni casi d’uso, appartenenti alle categorie prese in oggetto, per esaminare nel dettaglio, le caratteristiche di trustworthiness fornite da ognuno di essi, nel loro campo di applicazione. L’obiettivo è tracciare una mappatura dei principali criteri con cui viene valutata trustworthiness dei dati in qualsiasi ambito d’applicazione della rete, ponendo alcuni criteri fondamentali ed avere così una visione approfondita della problematica.
Resumo:
La precisione delle misure dell’accelerazione di gravità effettuate grazie ai gravimetri più moderni fornisce importanti informazioni relative ai processi deformativi, che avvengono nel nostro pianeta. In questa tesi il primo capitolo illustra alcuni fondamenti della teoria dell’elasticità ed in particolare la possibilità di descrivere qualunque sorgente deformativa interna alla Terra tramite una distribuzione di “forze equivalenti” con risultante e momento nulli. Inoltre descriviamo i diversi contributi alle variazioni di gravità prodotte da tali eventi. Il secondo capitolo fornisce alcune tecniche di soluzione dell’equazione di Laplace, utilizzate in alcuni calcoli successivi. Nel terzo capitolo si sviluppano le soluzioni trovate da Mindlin nel 1936, che analizzò spostamenti e deformazioni generate da una forza singola in un semispazio elastico omogeneo con superficie libera. Si sono effettuati i calcoli necessari per passare da una forza singola a un dipolo di forze e una volta trovate queste soluzioni si sono effettuate combinazioni di dipoli al fine di ottenere sorgenti deformative fisicamente plausibili, come una sorgente isotropa o una dislocazione tensile (orizzontale o verticale), che permettano di descrivere fenomeni reali. Nel quarto capitolo si descrivono i diversi tipi di gravimetri, assoluti e relativi, e se ne spiega il funzionamento. Questi strumenti di misura sono infatti utilizzati in due esempi che vengono descritti in seguito. Infine, nel quinto capitolo si sono applicati i risultati ottenuti nel terzo capitolo al fine di descrivere i fenomeni avvenuti ai Campi Flegrei negli anni ‘80, cercando il tipo di processo deformativo più adatto alla descrizione sia della fase di sollevamento del suolo che quella di abbassamento. Confrontando le deformazioni e le variazioni residue di gravità misurate prima e dopo gli eventi deformativi con le previsioni dei modelli si possono estrarre importanti informazioni sui processi in atto.
Resumo:
Il collasso di diverse colonne, caratterizzate da danneggiamenti simili, quali ampie fessure fortemente inclinate ad entrambe le estremità dell’elemento, lo schiacciamento del calcestruzzo e l’instabilità dei ferri longitudinali, ha portato ad interrogarsi riguardo gli effetti dell’interazione tra lo sforzo normale, il taglio ed il momento flettente. Lo studio è iniziato con una ricerca bibliografica che ha evidenziato una sostanziale carenza nella trattazione dell’argomento. Il problema è stato approcciato attraverso una ricerca di formule della scienza delle costruzioni, allo scopo di mettere in relazione lo sforzo assiale, il taglio ed il momento; la ricerca si è principalmente concentrata sulla teoria di Mohr. In un primo momento è stata considerata l’interazione tra solo due componenti di sollecitazione: sforzo assiale e taglio. L’analisi ha condotto alla costruzione di un dominio elastico di taglio e sforzo assiale che, confrontato con il dominio della Modified Compression Field Theory, trovata tramite ricerca bibliografica, ha permesso di concludere che i risultati sono assolutamente paragonabili. L’analisi si è poi orientata verso l’interazione tra sforzo assiale, taglio e momento flettente. Imponendo due criteri di rottura, il raggiungimento della resistenza a trazione ed a compressione del calcestruzzo, inserendo le componenti di sollecitazione tramite le formule di Navier e Jourawsky, sono state definite due formule che mettono in relazione le tre azioni e che, implementate nel software Matlab, hanno permesso la costruzione di un dominio tridimensionale. In questo caso non è stato possibile confrontare i risultati, non avendo la ricerca bibliografica mostrato niente di paragonabile. Lo studio si è poi concentrato sullo sviluppo di una procedura che tenta di analizzare il comportamento di una sezione sottoposta a sforzo normale, taglio e momento: è stato sviluppato un modello a fibre della sezione nel tentativo di condurre un calcolo non lineare, corrispondente ad una sequenza di analisi lineari. La procedura è stata applicata a casi reali di crollo, confermando l’avvenimento dei collassi.
Resumo:
L'obiettivo di questo elaborato è sviluppare un ambiente Matlab per il progetto ed il disegno di strutture utilizzabili in campo aerospaziale, basate su elementi a forbice. Questi elementi presentano la possibilità di espandersi così che una struttura con ridotto ingombro in posizione retratta può espandersi fino ad aumentare le sue dimensioni di diverse volte. Per la progettazione di questo ambiente è stato necessario studiare le relazioni geometriche che regolano i movimenti di questi elementi. Sono poi state implementate delle funzioni in ambiente Matlab® per studiare il movimento di questi elementi, partendo dalla simulazione del singolo elemento, per poi passare a strutture sempre più complicate realizzate come assemblaggio di più strutture elementari. Inoltre è stata progettata e implementata un’interfaccia grafica intuitiva con lo scopo di facilitare il compito del progettista. L’ambiente realizzato permette il progetto e il disegno di alcune semplici strutture, ma può essere ulteriormente sviluppato per implementare un numero sempre maggiore di strutture basate su elementi a forbice. Grazie all’ambiente realizzato, inserendo pochi parametri di progetto nell’apposita interfaccia, si può ottenere il dimensionamento di una struttura, la sua visualizzazione e simulare la sua espansione. Anche se l’ambiente è stato pensato per gestire una grande varietà di soluzioni costruttive, ne sono state implementate due: una struttura piana basata sulla ripetizione circolare di un elemento a forbice e una struttura tridimensionale basata su una serie di corone circolari disposte nello spazio. Queste, seppur non riconducibili a precise realizzazioni aerospaziali, possono essere la base per la progettazione di reali applicazioni come ad esempio satelliti espandibili nel caso 3D. La tesi presenta quindi: un’analisi delle relazioni geometriche che stanno alla base del movimento degli elementi a forbice, una descrizione delle funzioni implementate per simulare le due strutture prese in esame, la presentazione di quali caratteristiche sono state implementate nell’interfaccia grafica e come questa è stata implementata in Matlab, un cenno alle conclusioni che si possono trarre e ad alcuni possibili sviluppi.
Resumo:
Il Palazzo è un'architettura ben presente nell’immaginario collettivo soprattutto per il fatto che sia comunemente indicato come l’antica dimora dei Manfredi, signori della città. Tanto importante da sollevare sulla stampa locale periodiche ondate di indignazione per il suo stato di abbandono. Il recente studio di Lucio Donati dimostra come gli antichi proprietari fossero in realtà i Bazolini prima e i Viarani poi. A conclusione dell’articolo proponeva quindi di chiamare il fabbricato secondo il nome dei reali proprietari. In questa tesi ho deciso invece di chiamare il fabbricato con il nome di Casa Caldesi. Il precario stato di conservazione indica l’urgenza di un pronto intervento di restauro. Questa tesi propone una delle possibili ipotesi di progetto. Visto lo stato delle cose ho scelto un progetto di restauro che prevedesse una funzione mista residenziale e ad uffici. Mantenendo lungo via Manfredi le vetrine e quindi la funzione commerciale al dettaglio negli spazi che già una volta ospitavano i negozi. Il progetto si è soffermato in particolare nel disegno delle residenze. L’obiettivo di ripristinare i grandi ambienti decorati è stato rispettato attraverso un paziente lavoro di distribuzione capace di conservare e valorizzare la bellezza dei locali, senza perdere i requisiti di funzionalità e comodità adeguati alle moderne residenze. Questa scelta funzionale anche se può sembrare scontata e compatibile con un palazzo che da sempre è stata una residenza, presenta tuttavia alcune problematiche. L’ipotesi di restauro quindi si pone il problema di organizzare gli spazi del palazzo in appartamenti ed uffici, ripristinare la spazialità di tutti i grandi ambienti decorati e renderli compatibili con le esigenze abitative odierne.
Resumo:
Questa ricerca affronta in maniera interdisciplinare il tema delle funzioni polinomiali definite sugli anelli degli interi modulo la potenza di un numero primo. In primo luogo è stato esaminato il caso particolare del campo Zp, dimostrando che in esso tutte le funzioni sono polinomiali. In seguito è stato calcolato il numero delle funzioni polinomiali negli interi modulo 9 e modulo 25, mostrando un procedimento che può essere esteso a qualsiasi potenza di un numero primo. Esso fa uso di alcuni risultati di teoria dei numeri e di aritmetica e affronta il tema da un punto di vista prettamente algebrico. A queste dimostrazioni è stato affiancato un esperimento di tipo statistico, il cui obiettivo è cercare una regolarità che permetta, dati il numero primo p e il suo esponente n, di calcolare immediatamente il numero delle funzioni polinomiali nell'anello degli interi modulo p^n. Sono state presentate due congetture, ottenute utilizzando strumenti di tipo informatico: un software di calcolo e un linguaggio di programmazione ad alto livello. Gli strumenti della statistica descrittiva, in particolare il test di Pearson, si sono rivelati essenziali per verificare l'adeguatezza delle supposizioni. Questa ricerca può essere considerata il punto di partenza per dimostrare (o confutare) quello che è stato ipotizzato attraverso un'analisi di tipo sperimentale.
Resumo:
Nei capitoli I e II ho costruito rigorosamente le funzioni circolari ed esponenziali rispettivamente attraverso un procedimento analitico tratto dal libro Analisi Matematica di Giovanni Prodi. Nel III capitolo, dopo aver introdotto il numero di Nepero e come limite di una particolare successione monotona, ho calcolato i limiti notevoli dell'esponenziale e della sua inversa, che sono alla base del calcolo differenziale di queste funzioni, concludendo poi la sezione dimostrando l'irrazionalità del numero e, base dei logaritmi naturali. Nel capitolo successivo ho dato, delle funzioni circolari ed esponenziali, i rispettivi sviluppi in serie di Taylor ma solamente nel V capitolo potremo renderci veramente conto di come i risultati ottenuti siano fra loro dipendenti. In particolare verrà messa in evidenza come il legame del tutto naturale che si osserva fra le funzioni circolari e le funzioni esponenziali rappresenta le fondamenta di argomenti molto notevoli e pieni di significato, come l'estensione ai numeri complessi dell'esponenziale o le celebri identità di Eulero. L'ultimo capitolo vedrà come protagonista pi greco, così misterioso quanto affascinante, che per secoli ha smosso gli animi dei matematici intenzionati a volerne svelare la natura. Come per il numero di Nepero, non potrà mancare un paragrafo dedicato alla dimostrazione della sua non razionalità.
Resumo:
In questo lavoro viene introdotto il metodo Bootstrap, sviluppato a partire dal 1979 da Bradley Efron. Il Bootstrap è una tecnica statistica di ricampionamento basata su calcoli informatici, e quindi definita anche computer-intensive. In particolare vengono analizzati i vantaggi e gli svantaggi di tale metodo tramite esempi con set di dati reali implementati tramite il software statistico R. Tali analisi vertono su due tra i principali utilizzi del Bootstrap, la stima puntuale e la costruzione di intervalli di confidenza, basati entrambi sulla possibilità di approssimare la distribuzione campionaria di un qualsiasi stimatore, a prescindere dalla complessità di calcolo.
Resumo:
Molti concetti basilari dell'Analisi Matematica si fondano sulla definizione di limite, della quale si è avuta una formulazione rigorosa solo nel XIX secolo, grazie a Cauchy e a Weierstrass. Il primo capitolo ripercorre brevemente le tappe storiche di un percorso lungo e difficile, durato circa 2000 anni, evidenziando le difficoltà dei grandi matematici che si sono occupati dei concetti infinitesimali. Nel secondo capitolo vengono esposte le possibili cause delle difficoltà degli studenti nell'apprendimento dei limiti. Nel terzo capitolo vengono descritte ed analizzate le risposte degli studenti liceali ed universitari ad un questionario sui limiti.
Resumo:
Scopo della tesi è la trattazione dei logaritmi a partire dalla storia di quest'ultimi, al loro sviluppo, fino ad arrivare alle diverse applicazioni dei logaritmi in svariate discipline. La tesi è strutturata in quattro capitoli, nel primo dei quali si parte analizzando quali istanze teoriche e necessità pratiche abbiano preparato la strada all'introduzione dei logaritmi. Vengono riportati alcuni passi del testo più importante dedicato da Nepero ai logaritmi, Mirifici Logarithmorum Canonis Constructio, la modifica ad opera di Henry Briggs e la diffusione dei logaritmi in gran parte dell' Europa. Nel secondo capitolo viene evidenziato il legame tra i logaritmi e la geometria dell'iperbole per poi passare alla trattazione dei primi studi sulla curva logaritmica. Nel terzo capitolo viene esaminata la controversia tra Leibniz e Bernoulli sul significato da attribuire ai logaritmi dei numeri negativi soffermandosi su come Eulero uscì da una situazione di stallo proponendo una teoria dei logaritmi dei numeri complessi. Nel quarto ed ultimo capitolo vengono analizzati i diversi utilizzi della scala logaritmica ponendo soprattutto l'attenzione sul regolo calcolatore, arrivando infine a mostrare le applicazioni dei logaritmi in altre discipline.
Resumo:
Scopo della tesi è illustrare l'origine della nozione di logaritmo nei suoi primi decenni dalla nascita, partendo dalle opere di J. Napier (Nepero, 1550-1617) fino a B. Cavalieri (1598-1647), che insieme a J. Keplero (1571-1630) concludono la cosiddetta età pioneristica. Nel primo capitolo sono esposti alcuni mezzi di calcolo usati nel XVI secolo, come i "bastoncini di Nepero"; e il confronto della progressione geometrica con quella aritmetica, che con la conoscenza delle leggi esponenziali, porterà all'invenzione dei logaritmi. Il secondo capitolo è dedicato interamente a Napier (fatto salvo un cenno all'opera di Burgi), con lo scopo di illustrare i suoi due maggiori trattati sui logaritmi: il primo fu sostanzialmente una tavola di numeri da lui inizialmente chiamati "numeri artificiali" e successivamente definiti "logaritmi"; il secondo, curato e pubblicato dal figlio, è un trattato nel quale giustifica il nuovo concetto da lui ottenuto ed i metodi usati per il calcolo delle tavole. Con Henry Briggs (capitolo III) la teoria del logaritmo giunge a maturazione. Egli stesso definì una propria funzione logaritmica Bl_1 che, in seguito, mutò dopo un paio di incontri con Napier. Nelle tavole di Briggs il logaritmo da lui introdotto avrà base 10 e il logaritmo di 1 sarà nullo, definendo così il nostro usuale logaritmo decimale. Nel quarto capitolo mi occupo della diffusione in Italia e in Germania delle nozioni di logaritmo, da parte, rispettivamente di B. Cavalieri e J. Keplero. Cavalieri scrisse parecchio sui logaritmi, pubblicando anche proprie tavole, ma non sembra che abbia raggiunto risultati di grande rilevanza nel campo, tuttavia seppe usare la teoria dei logaritmi in campo geometrico giungendo a formule interessanti. La parte storica della tesi si conclude con alcune notizie sul contributo di Keplero e la diffusione della nozione dei logaritmi neperiani in Germania. La mia esposizione si conclude con qualche notizia sull'uso dei logaritmi e sul regolo calcolatore dalla fine del XIX secolo fin verso gli anni ’70 del secolo scorso.
Resumo:
Molte applicazioni sono legate a tecniche di rilassometria e risonanza magnetica nucleare (NMR). Tali applicazioni danno luogo a problemi di inversione della trasformata di Laplace discreta che è un problema notoriamente mal posto. UPEN (Uniform Penalty) è un metodo numerico di regolarizzazione utile a risolvere problemi di questo tipo. UPEN riformula l’inversione della trasformata di Laplace come un problema di minimo vincolato in cui la funzione obiettivo contiene il fit di dati e una componente di penalizzazione locale, che varia a seconda della soluzione stessa. Nella moderna spettroscopia NMR si studiano le correlazioni multidimensionali dei parametri di rilassamento longitudinale e trasversale. Per studiare i problemi derivanti dall’analisi di campioni multicomponenti è sorta la necessità di estendere gli algoritmi che implementano la trasformata inversa di Laplace in una dimensione al caso bidimensionale. In questa tesi si propone una possibile estensione dell'algoritmo UPEN dal caso monodimensionale al caso bidimensionale e si fornisce un'analisi numerica di tale estensione su dati simulati e su dati reali.
Resumo:
Lo scopo di questo lavoro è mostrare la potenza della teoria di Galois per caratterizzare i numeri complessi costruibili con riga e compasso o con origami e la soluzione di problemi geometrici della Grecia antica, quali la trisezione dell’angolo e la divisione della circonferenza in n parti uguali. Per raggiungere questo obiettivo determiniamo alcune relazioni significative tra l’assiomatica delle costruzioni con riga e compasso e quella delle costruzioni con origami, antica arte giapponese divenuta recentemente oggetto di studi algebrico-geometrici. Mostriamo che tutte le costruzioni possibili con riga e compasso sono realizzabili con il metodo origami, che in più consente di trisecare l’angolo grazie ad una nuova piega, portando ad estensioni algebriche di campi di gradi della forma 2^a3^b. Presentiamo poi i risultati di Gauss sui poligoni costruibili con riga e compasso, legati ai numeri primi di Fermat e una costruzione dell’eptadecagono regolare. Concludiamo combinando la teoria di Galois e il metodo origami per arrivare alla forma generale del numero di lati di un poligono regolare costruibile mediante origami e alla costruzione esplicita dell’ettagono regolare.
Resumo:
Questa ricerca si concentra sulla gestione dei sintagmi nominali complessi nell’interpretazione simultanea in italiano dei discorsi inglesi del corpus elettronico EPIC (European Parliament Interpreting Corpus). EPIC contiene le trascrizioni di discorsi pronunciati al Parlamento europeo in inglese, italiano e spagnolo e le rispettive interpretazioni nelle altre due lingue. Per quest’analisi sono stati utilizzati due sottocorpora: I discorsi originali inglesi e i rispettivi discorsi interpretati in italiano. L’obiettivo del progetto era estrarre i sintagmi nominali complessi dal sottocorpus dei discorsi inglesi e confrontarli con le rispettive traduzioni in italiano per studiare le strategie adottate dagli interpreti. L’ipotesi iniziale era che i sintagmi nominali complessi sono una sfida traduttiva. I sintagmi analizzati erano stringhe di parole formate da una testa nominale preceduta da due o più modificatori, che potevano essere aggettivi, sostantivi, avverbi, numeri cardinali e genitivi. Nel primo capitolo sono state descritte le caratteristiche dei modificatori sia in inglese che in italiano. Il secondo capitolo espone lo stato dell’arte degli studi di interpretazione basati sui corpora, con una sezione dedicata agli studi svolti su EPIC. Il terzo capitolo si concentra sulla metodologia utilizzata. I dati sono stati estratti automaticamente con tre espressioni di ricerca e poi selezionati manualmente secondo dei criteri di inclusione e di esclusione. I sintagmi nominali scelti sono stati confrontati con le corrispondenti traduzioni in italiano e classificati secondo il modello teorico delle relazioni traduttive di Schjoldager (1995). Il quarto capitolo contiene I dati raccolti, che sono stati analizzati nel quinto capitolo sia da un punto di vista quantitativo che qualitativo. I sintagmi nominali in tutto il sottocorpus sono stati confrontati con i sintagmi nominali di gruppi specifici di testi, suddivisi secondo la velocità di eloquio e la modalità di presentazione. L’ipotesi iniziale è stata in parte confermata e sono state descritte le strategie traduttive adottate dagli interpreti.