470 resultados para Carathéodory teorema estensione misura


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi riguarda la formula di Eulero per i poliedri: F - S + V = 2 dove F indica il numero di facce, S il numero di spigoli e V quello dei vertici di un poliedro. Nel primo capitolo tratteremo i risultati ottenuti da Cartesio: egli fu il primo a considerare non solo le caratteristiche geometriche ma anche metriche di un solido. Partendo dall'analogia con le figure piane, riuscì a ricavare importanti relazioni nei solidi convessi, riguardanti il numero e la misura degli angoli piani, degli angoli solidi e delle facce. Non arrivò mai alla formulazione conosciuta oggi ma ne intuì le caratteristiche topologiche, che però non dimostrò mai. Nel secondo capitolo invece ci occuperemo di ciò che scoprì Eulero. Il manoscritto contenente i risultati di Cartesio era scomparso e quindi questi non erano più conosciuti dai matematici; Eulero, in accordo con quanto avviene per i poligoni, desiderava ottenere un metodo di classificazione per i poliedri e si mise a studiare le loro proprietà. Oltre alla sua formula, in un primo articolo ricavò importanti relazioni, e in un secondo lavoro ne propose una dimostrazione. Riportiamo in breve anche un confronto tra il lavoro di Cartesio e quello di Eulero. Il terzo capitolo invece riguarda il metodo e il rigore nella formulazione di teoremi e dimostrazioni: I. Lakatos ne fa un esame critico nel libro "Dimostrazioni e Confutazioni - la logica della scoperta matematica", simulando una lezione dove a tema compaiono la Formula di Eulero e le sue dimostrazioni. Noi cercheremo di analizzare questo suo lavoro. Su questi tre autori e i loro lavori riportiamo alcune considerazioni biografiche e storiche che possono offrire interessanti spunti didattici: infatti nel quarto e ultimo capitolo ci occuperemo di alcune considerazioni didattiche a proposito della Formula. La struttura sarà quella di un'ipotetica lezione a studenti di Scuola Media Inferiore e utilizzeremo i risultati ottenuti nei precedenti capitoli e una personale esperienza di tirocinio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problema di Cauchy, teorema di dipendenza continua dai dati iniziali, teorema di dipendenza regolare dai dati e dai parametri.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nuova frontiera per la procedura di test tailoring è la sintesi di profili vibratori il più reali possibili, nei quali venga tenuto conto della possibile presenza di eventi transitori e della non scontata ripetibilità delle vibrazioni nel tempo. Negli ultimi anni si è rivolto un crescente interesse nel "controllo del Kurtosis", finalizzato alla realizzazione di profili vibratori aventi distribuzione di probabilità non-Gaussiana. Durante l’indagine sperimentale oggetto di questa trattazione si sono portati a rottura per fatica alcuni componenti sottoposti, in generale, a tre differenti tipi di sollecitazione: stazionaria Gaussiana, stazionaria non-Gaussiana e non stazionaria non-Gaussiana. Il componente testato è costituito da un provino cilindrico montato a sbalzo e dotato di una massa concentrata all’estremità libera e di una gola vicina all’incastro, nella quale avviene la rottura per fatica. Durante l’indagine sperimentale si è monitorata la risposta in termini di accelerazione all’estremità libera del provino e di spostamento relativo a monte e a valle della gola, essendo quest’ultimo ritenuto proporzionale alle tensioni che portano a rottura il componente. Per ogni prova sono stati confrontati il Kurtosis e altri parametri statistici dell’eccitazione e della risposta. I risultati ottenuti mostrano che solo le sollecitazioni non stazionarie non-Gaussiane forniscono una risposta con distribuzione di probabilità non-Gaussiana. Per gli altri profili vale invece il Teorema del Limite Centrale. Tale per cui i picchi presenti nell'eccitazione non vengono trasmessi alla risposta. Sono stati inoltre monitorati i tempi di rottura di ogni componente. L’indagine sperimentale è stata effettuata con l'obiettivo di indagare sulle caratteristiche che deve possedere l’eccitazione affinchè sia significativa per le strategie alla base del "controllo del Kurtosis".

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi viene studiata la corrispondenza di Galois. Tale corrispondenza mette in relazione particolari sottogruppi con sottocampi intermedi di un'estensione finita.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La rotazione dell’apice del cuore è una delle espressioni della complessa cinematica del miocardio e rappresenta un importante indice di funzionalità cardiaca. Disporre di un sensore impiantabile che permetta un monitoraggio continuo di tale parametro consentirebbe di individuare precocemente un deterioramento della performance cardiaca e di adattare tempestivamente la terapia. L’obiettivo del lavoro di tesi è la realizzazione di un sistema di acquisizione dati per segnali provenienti da un giroscopio MEMS triassiale da utilizzarsi per lo studio della cinematica cardiaca, in particolare della rotazione del cuore. Per leggere e decodificare i segnali digitali in uscita dal giroscopio MEMS triassiale utilizzato (CMR3100, VTI Technologies) è stata progettata e sviluppata un’unità di condizionamento composta da una board Arduino ADK, associata ad un adattatore di tensione PCA9306 e a 3 convertitori digitali/analogici MCP4921, che ha richiesto lo sviluppo di software per la gestione del protocollo di comunicazione e della decodifica del segnale digitale proveniente dal sensore. Per caratterizzare e validare il sistema realizzato sono state effettuate prove di laboratorio, che hanno permesso di individuare i parametri di lavoro ottimali del sensore. Una prima serie di prove ha dimostrato come l’unità di condizionamento realizzata consenta di acquisire i segnali con una velocità di processo elevata (1 kHz) che non comporta perdita di dati in uscita dal sensore. Successivamente, attraverso un banco prova di simulazione appositamente assemblato allo scopo di riprodurre rotazioni cicliche nel range dei valori fisio-patologici, è stato quantificato lo sfasamento temporale (St) tra il segnale rilevato dal CMR3100 e decodificato dall'unità di condizionamento e un segnale analogico in uscita da un giroscopio analogico, ottenendo un valore medio St=4 ms. Attraverso lo stesso banco di simulazione, è stata infine dimostrata una buona accuratezza (errore percentuale <10%) nella misura dell'angolo di rotazione derivato dal segnale di velocità angolare rilevato direttamente dal sensore CRM300.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I sistemi di intelligenza artificiale vengono spesso messi a confronto con gli aspetti biologici riguardanti il cervello umano. L’interesse per la modularità è in continua crescita, che sta portando a risultati davvero interessanti attraverso l’utilizzo di sistemi artificiali intelligenti, come le reti neuronali. Molte reti, sia biologiche sia artificiali sono organizzate in moduli, i quali rappresentano cluster densi di parti interconnesse fra loro all’interno di una rete complessa. Nel campo dell’ingegneria, si usano design modulari per spiegare come una macchina è costituita da parti separate. Lo studio della struttura e delle funzioni di organismi/processi complessi si basa implicitamente su un principio di organizzazione modulare, vale a dire si dà per acquisito il fatto che siano modulari, cioè composti da parti con forma e/o funzioni diverse. Questo elaborato si propone di esporre gli aspetti fondamentali riguardanti la modularità di reti neuronali, le sue origini evolutive, le condizioni necessarie o sufficienti che favoriscono l’emergere dei moduli e relativi vantaggi. Il primo capitolo fornisce alcune conoscenze di base che permettono di leggere gli esperimenti delle parti successive con consapevolezza teorica più profonda. Si descrivono reti neuronali artificiali come sistemi intelligenti ispirati alla struttura di reti neurali biologiche, soffermandosi in particolare sulla rete feed-forward, sull’algoritmo di backpropagation e su modelli di reti neurali modulari. Il secondo capitolo offre una visione delle origini evolutive della modularità e dei meccanismi evolutivi riguardanti sistemi biologici, una classificazione dei vati tipi di modularità, esplorando il concetto di modularità nell’ambito della psicologia cognitiva. Si analizzano i campi disciplinari a cui questa ricerca di modularità può portare vantaggi. Dal terzo capitolo che inizia a costituire il corpo centrale dell’elaborato, si dà importanza alla modularità nei sistemi computazionali, illustrando alcuni casi di studio e relativi metodi presenti in letteratura e fornendo anche una misura quantitativa della modularità. Si esaminano le varie possibilità di evoluzione della modularità: spontanea, da specializzazione, duplicazione, task-dependent, ecc. passando a emulare l’evoluzione di sistemi neurali modulari con applicazione al noto modello “What-Where” e a vari modelli con caratteristiche diverse. Si elencano i vantaggi che la modularità produce, soffermandosi sull’algoritmo di apprendimento, sugli ambienti che favoriscono l’evoluzione della modularità con una serie di confronti fra i vari tipi, statici e dinamici. In ultimo, come il vantaggio di avere connessioni corte possa portare a sviluppare modularità. L’obiettivo comune è l’emergere della modularità in sistemi neuronali artificiali, che sono usati per applicazioni in numerosi ambiti tecnologici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Capire come ottenere l'informazione accessibile, cioè quanta informazione classica si può estrarre da un processo quantistico, è una delle questioni più intricate e affascinanti nell'ambito della teoria dell'informazione quantistica. Nonostante l'importanza della nozione di informazione accessibile non esistono metodi generali per poterla calcolare, esistono soltanto dei limiti, i più famosi dei quali sono il limite superiore di Holevo e il limite inferiore di Josza-Robb-Wootters. La seguente tesi fa riferimento a un processo che coinvolge due parti, Alice e Bob, che condividono due qubits. Si considera il caso in cui Bob effettua misure binarie sul suo qubit e quindi indirizza lo stato del qubit di Alice in due possibili stati. L'obiettivo di Alice è effettuare la misura ottimale nell'ottica di decretare in quale dei due stati si trova il suo qubit. Lo strumento scelto per studiare questo processo va sotto il nome di 'quantum steering ellipsoids formalism'. Esso afferma che lo stato di un sistema di due qubit può essere descritto dai vettori di Bloch di Alice e Bob e da un ellissoide nella sfera di Bloch di Alice generato da tutte le possibili misure di Bob. Tra tutti gli stati descritti da ellissoidi ce ne sono alcuni che manifestano particolari proprietà, per esempio gli stati di massimo volume. Considerando stati di massimo volume e misure binarie si è riuscito a trovare un limite inferiore all'informazione accessibile per un sistema di due qubit migliore del limite inferiore di Josza-Robb-Wootters. Un altro risultato notevole e inaspettato è che l'intuitiva e giustificata relazione 'distanza tra i punti nell'ellissoide - mutua informazione' non vale quando si confrontano coppie di punti ''vicine'' tra loro e lontane dai più distanti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Per telescopio intendiamo qualsiasi strumento finalizzato alla misura della radiazione proveniente dallo spazio. Tipicamente questo nome viene riservato agli strumenti ottici; tuttavia è utile utilizzare un singolo nome per caratterizzare tutta la classe di strumenti per le osservazioni astronomiche. Un telescopio è uno strumento capace di raccogliere radiazione da una grande superficie, concentrandola in un punto. La luce viene in genere raccolta da uno specchio o antenna, quindi elaborata da vari strumenti, come per esempio un filtro o uno spettrografo, e infine indirizzata ad un rivelatore, che può essere l'occhio umano, una lastra fotografica, un CCD, un rivelatore radio, una camera a scintille etc.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo elaborato si propone di dare una panoramica generale delle basi della Dinamica dei Fluidi e della sua importanza nel contesto astrofisico; è strutturato in modo da fornire le nozioni fondamentali necessarie in tali campi e le essenziali informazioni sul formalismo correntemente utilizzato, per poi concludere con l'analisi del fenomeno dell'instabilità di Jeans.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In ambiente astrofsico i principali meccanismi di produzione di energia sono associati a cariche elettriche in moto non uniforme. In generale è noto che cariche libere emettono radiazione elettromagnetica solamente se accelerate:una carica stazionaria ha campo elettrico costante e campo magnetico nullo, quindi non irradia, e lo stesso si ha per una carica in moto uniforme (difatti basta porsi nel sistema di riferimento solidale ad essa perchè si ricada nel caso precedente). In questo contesto si inserisce la radiazione di Bremsstrahlung, caratteristica dei plasmi astrofsici molto caldi e dovuta all'interazione coulombiana tra gli ioni e gli elettroni liberi del gas ionizzato. Data la piccola massa dell'elettrone, durante l'interazione lo ione non viene accelerato in maniera apprezzabile, quindi è possibile trattare il problema come quello di cariche elettriche negative decelerate dal campo coulombiano stazionario di un mare di cariche positive. Non a caso in tedesco la parola Bremsstrahlung signifca radiazione di frenamento". L'emissione di Bremsstrahlung è detta anche free-free emission poichè l'elettrone perde energia passando da uno stato non legato a un altro stato non legato. Questo processo di radiazione avviene nel continuo, su un intervallo di frequenze che va dal radio ai raggi gamma. In astrofsica è il principale meccanismo di raffreddamento per i plasmi a temperature elevate: si osserva nelle regioni HII, sottoforma di emissione radio, ma anche nelle galactic hot-coronae, nelle stelle binarie X, nei dischi di accrescimento intorno alle stelle evolute e ai buchi neri, nel gas intergalattico degli ammassi di galassie e nelle atmosfere di gas caldo in cui sono immerse le galassie ellittiche, perlopiù sottoforma di emissione X. La trattazione del fenomeno sarà estesa anche al caso relativistico che, per esempio, trova applicazione nell'emissione dei ares solari e della componente elettronica dei raggi cosmici. Infine la radiazione di Bremsstrahlung, oltre a permettere, solamente mediante misure spettroscopiche, di ricavare la temperatura e la misura di emissione di una nube di plasma, consente di effettuare una vera e propria "mappatura" del campo gravitazionale dei sistemi che hanno gas caldo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una teoria degli insiemi alternativa alla più nota e diffusa teoria di Zermelo-Fraenkel con l'Assioma di Scelta, ZFC, è quella proposta da W. V. O. Quine nel 1937, poi riveduta e corretta da R. Jensen nel 1969 e rinominata NFU (New foundations with Urelementen). Anche questa teoria è basata sui concetti primitivi di insieme e appartenenza, tuttavia differisce notevolmente da quella usuale perché si ammettono solo formule stratificate, cioè formule in cui è rispettata una gerarchizzazione elemento-insieme che considera priva di significato certe scritture. L'unico inconveniente di NFU è dovuto alle conseguenze della stratificazione. I pregi invece sono notevoli: ad esempio un uso molto naturale delle relazioni come l'inclusione, o la possibilità di considerare insiemi anche collezioni di oggetti troppo "numerose" (come l'insieme universale) senza il rischio di cadere in contraddizione. NFU inoltre risulta essere più potente di ZFC, in quanto, grazie al Teorema di Solovay, è possibile ritrovare in essa un modello con cardinali inaccessibili di ZFC ed è ammessa la costruzione di altri modelli con cardinali inaccessibili della teoria classica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo del presente lavoro è di illustrare alcuni temi di geometria simplettica, i cui risultati possono essere applicati con successo al problema dell’integrazione dei sistemi dinamici. Nella prima parte si formalizza il teorema di Noether generalizzato, introducendo il concetto dell’applicazione momento, e si dà una descrizione dettagliata del processo di riduzione simplettica, che consiste nello sfruttare le simmetrie di un sistema fisico, ovvero l’invarianza sotto l’azione di un gruppo dato, al fine di eliminarne i gradi di libertà ridondanti. Nella seconda parte, in quanto risultato notevole reso possibile dalla teoria suesposta, si fornisce una panoramica dei sistemi di tipo Calogero-Moser: sistemi totalmente integrabili che possono essere introdotti e risolti usando la tecnica della riduzione simplettica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi viene trattata la trasformata di Fourier per funzioni sommabili, con particolare riguardo per il cosiddetto teorema di inversione, che permette il calcolo di sofisticati integrali reali. Viene inoltre fornito un capitolo di premesse di analisi complessa, utili al calcolo esplicito di trasformate di Fourier.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Scopo di questo elaborato è la trattazione del momento di inerzia di un sistema meccanico rispetto ad una retta, con particolare attenzione alla struttura geometrica associata a questa nozione, ovvero all’ellissoide di inerzia. Si parte dalla definizione delle grandezze meccaniche fondamentali, passando per le equazioni cardinali della dinamica, arrivando a dimostrare il teorema di König. Viene poi studiato il momento di inerzia ed evidenziato il suo ruolo importante per la determinazione del momento angolare e dell’energia cinetica: in particolare è emersa la centralità dell’ellissoide d’inerzia. Si conclude con la dimostrazione del teorema di Huyghens e alcuni esempi espliciti di calcolo dell’ellissoide di inerzia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo elaborato realizzato assieme alla creazione di un link nel sito "progettomatematic@" tratta dell'infinito in tre modi diversi: la storia, l'applicazione ai frattali e alla crittografia. Inizia con una breve storia dai greci all'antinomia di Russel; poi si parla dei frattali in natura, di misura e dimensione di Hausdorff, polvere di Cantor e fiocco di neve di Koch. Infine si trova un riassunto dei cifrari storici famosi, con particolare attenzione al cifrario di Vernam, alla teoria dell'entropia di Shannon e alla dimostrazione che otp ha sicurezza assoluta.