962 resultados para numeri primi criteri divisibilità Euclide Goldbach Eulero Lagrange Mersenne Fürstenberg
Resumo:
La tesi introduce il problema matematico della rovina del giocatore dopo un'introduzione storica relativa allo sviluppo del gioco d'azzardo ed alla sua concezione sociale. Segue un'analisi di alcuni particolari giochi con un approfondimento sul calcolo della probabilità di vittoria e sul gioco equo. Infine sono introdotti alcuni preliminari matematici relativi alla misura, alle successioni di Bernoulli ed alle leggi dei grandi numeri, necessari per comprendere il problema.
Resumo:
Nel 2020 verrà lanciata la missione spaziale Euclid per investigare la natura dell’energia oscura. Euclid otterrà un’immensa quantità di dati fotometrici e spettrometrici finalizzati, soprattutto, alla misura di lenti gravitazionali deboli e oscillazioni acustiche barioniche. In questa tesi daremo una descrizione generale dello strumento e della scienza che potrà essere fatta grazie ad esso. In particolare, nel capitolo 2 verrà fornita una introduzione alla cosmologia e verranno introdotti i vari parametri cosmologici che Euclid sarà in grado di vincolare. Nel capitolo 3 si farà un’analisi dei principali fenomeni fisici che Euclid indagherà. Nel capitolo 4 verrà data una panoramica del satellite, descrivendo in dettaglio gli obiettivi, cosa osserverà e come farà le osservazioni, e quali sono gli strumenti che lo compongono (satellite, telescopio, VIS e NISP). Infine, nel capitolo 5 verranno mostrati dei primi risultati preliminari, ottenuti in questa tesi, riguardanti il test di un programma che servirà per la misura della funzione di correlazione a due punti di Euclid.
Resumo:
L’assioma di scelta ha una preistoria, che riguarda l’uso inconsapevole e i primi barlumi di consapevolezza che si trattasse di un nuovo principio di ragionamento. Lo scopo della prima parte di questa tesi è quello di ricostruire questo percorso di usi più o meno impliciti e più o meno necessari che rivelarono la consapevolezza non solo del fatto che fosse indispensabile introdurre un nuovo principio, ma anche che il modo di “fare matematica” stava cambiando. Nei capitoli 2 e 3, si parla dei moltissimi matematici che, senza rendersene conto, utilizzarono l’assioma di scelta nei loro lavori; tra questi anche Cantor che appellandosi alla banalità delle dimostrazioni, evitava spesso di chiarire le situazioni in cui era richiesta questa particolare assunzione. Il capitolo 2 è dedicato ad un caso notevole e rilevante dell’uso inconsapevole dell’Assioma, di cui per la prima volta si accorse R. Bettazzi nel 1892: l’equivalenza delle due nozioni di finito, quella di Dedekind e quella “naturale”. La prima parte di questa tesi si conclude con la dimostrazione di Zermelo del teorema del buon ordinamento e con un’analisi della sua assiomatizzazione della teoria degli insiemi. La seconda parte si apre con il capitolo 5 in cui si parla dell’intenso dibattito sulla dimostrazione di Zermelo e sulla possibilità o meno di accettare il suo Assioma, che coinvolse i matematici di tutta Europa. In quel contesto l’assioma di scelta trovò per lo più oppositori che si appellavano ad alcune sue conseguenze apparentemente paradossali. Queste conseguenze, insieme alle molte importanti, sono analizzate nel capitolo 6. Nell’ultimo capitolo vengono riportate alcune tra le molte equivalenze dell’assioma di scelta con altri enunciati importanti come quello della tricotomia dei cardinali. Ci si sofferma poi sulle conseguenze dell’Assioma e sulla sua influenza sulla matematica del Novecento, quindi sulle formulazioni alternative o su quelle più deboli come l’assioma delle scelte dipendenti e quello delle scelte numerabili. Si conclude con gli importanti risultati, dovuti a Godel e a Cohen sull’indipendenza e sulla consistenza dell’assioma di scelta nell’ambito della teoria degli insiemi di Zermelo-Fraenkel.
Resumo:
Lo studio di sistemi quantistici sta alla base di molti dei moderni sviluppi teorici e applicativi della Fisica. In questo scritto vogliamo studiare il funzionamento di simulatori e computer quantistici. I primi permettono di simulare l’evoluzione di un sistema quantistico in maniera controllata gli altri possono eseguire operazioni logiche su oggetti chiamati qubits. Andremo a studiare come ottenere un set universale di porte logiche quantistiche e le loro caratteristiche. Analizzeremo le differenze tra simulazione analogica(AQS) e digitale(DQS). Applicheremo quest’ultima a sistemi di particelle fermioniche e bosoniche in un reticolo.
Resumo:
In questa tesi si mostra che la caratteristica di Eulero e l'orientabilità (o non orientabilità) sono invarianti topologici per le superfici compatte e si studia il teorema di classificazione per tali superfici.
Resumo:
[Abstract]. Questo lavoro è finalizzato al confronto delle rivelazioni di canditati eventi di neutrino cosmico da parte di due esperimenti ANTARES ed ICECUBE. I due apparati, entrambi basati sulla rivelazione di radiazione Cherenkov generata da prodotti di interazione CC dei neutrini, si differenziano per la geometria del detector e per il mezzo in cui viene prodotta la radiazione, e hanno quindi sensibilità e risoluzione diverse. L'analisi dei dati è basata sulla rappresentazione delle direzioni di arrivo degli eventi su mappa celeste nei due sistemi di coordinate galattico ed equatoriale. La sovrapposizione della distribuzioni degli eventi ha permesso di evidenziare le zone di visibilità sulla mappa celeste caratteristiche di ciascun esperimento. Una successiva analisi statistica ha analizzato la frequenza delle occorenze di eventi del dataset di ANTARES in intorni di raggio crescente di eventi di ICECUBE, per valutare eventuali eventi identificabili nei due dataset. Questa analisi ha evidenziato la necessità di una selezione preventiva degli eventi del dataset di ANTARES, in base a criteri non solo topologici, in modo da permettere una eventuale identificazione di eventi coincidenti.
Resumo:
L'assistenza sanitaria in Italia e nel mondo è caratterizzata da bisogni elevati in continua crescita, ad essi si contrappone l'attuale crisi delle risorse economiche determinando per il Sistema una valutazione di scelte quali la riduzione o la rimodulazione dell'offerta sanitaria pubblica. L'idea di questo lavoro, nata all'interno dell'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (IRST) IRCCS, è di approcciare questo problema in ottica di miglioramento delle performance anziché riduzione dei servizi, nella convinzione che vi siano importanti margini di perfezionamento. Per questi motivi si è valutata la necessità di sviluppare un metodo e un'applicazione software per l'identificazione dei percorsi diagnostici terapeutici assistenziali (PDTA), per la raccolta di dati dalle strutture coinvolte, per l'analisi dei costi e dei risultati, mirando ad una analisi di tipo costi - efficacia e di benchmarking in ottica di presa in carico dei bisogni di salute. La tesi descrive la fase di raccolta e analisi dei requisiti comprensiva della profilazione utenti e descrizione di alcuni aspetti dinamici salienti, la fase di progettazione concettuale (schema Entity/Relationship, glossario e volumi dei dati), la fase di progettazione logica e la prototipazione dell'interfaccia utente. Riporta inoltre una valutazione dei tempi di sviluppo realizzata tramite metodologia di calcolo dei punti per caso d'uso. L'applicazione progettata è oggetto di valutazione di fattibilità presso l'IRST, che ha utilizzato alcune delle metodologie descritte nella tesi per descrivere il percorso di patologia mammaria e presentarne i primi risultati all'interno di un progetto di ricerca in collaborazione con l'Agenzia Nazionale per i Servizi Sanitari Regionali (Agenas).
Resumo:
La quantum biology (QB) è un campo di ricerca emergente che cerca di affronta- re fenomeni quantistici non triviali all’interno dei contesti biologici dotandosi di dati sperimentali di esplorazioni teoriche e tecniche numeriche. I sistemi biologici sono per definizione sistemi aperti, caldi,umidi e rumorosi, e queste condizioni sono per loro imprenscindibili; si pensa sia un sistema soggetto ad una veloce decoerenza che sopprime ogni dinamica quantistica controllata. La QB, tramite i principi di noise assisted transport e di antenna fononica sostiene che la presenza di un adeguato livello di rumore ambientale aumenti l’efficienza di un network di trasporto,inoltre se all’interno dello spettro ambientale vi sono specifici modi vibrazionali persistenti si hanno effetti di risonanza che rigenerano la coerenza quantistica. L’interazione ambiente-sistema è di tipo non Markoviano,non perturbativo e di forte non equi- librio, ed il rumore non è trattato come tradizionale rumore bianco. La tecnica numerica che per prima ha predetto la rigenerazione della coerenza all’interno di questi network proteici è stato il TEBD, Time Evolving Block Decimation, uno schema numerico che permette di simulare sistemi 1-D a molti corpi, caratterizzati da interazioni di primi vicini e leggermente entangled. Tramite gli algoritmi numerici di Orthopol l’hamiltoniana spin-bosone viene proiettata su una catena discreta 1-D, tenendo conto degli effetti di interazione ambiente-sistema contenuti nello spettro(il quale determina la dinamica del sistema).Infine si esegue l’evoluzione dello stato.
Resumo:
In der vorliegenden Arbeit wird die Theorie der analytischen zweiten Ableitungen für die EOMIP-CCSD-Methode formuliert sowie die durchgeführte Implementierung im Quantenchemieprogramm CFOUR beschrieben. Diese Ableitungen sind von Bedeutung bei der Bestimmung statischer Polarisierbarkeiten und harmonischer Schwingungsfrequenzen und in dieser Arbeit wird die Genauigkeit des EOMIP-CCSD-Ansatzes bei der Berechnung dieser Eigenschaften für verschiedene radikalische Systeme untersucht. Des Weiteren können mit Hilfe der ersten und zweiten Ableitungen vibronische Kopplungsparameter berechnet werden, welche zur Simulation von Molekülspektren in Kombination mit dem Köppel-Domcke-Cederbaum (KDC)-Modell - in der Arbeit am Beispiel des Formyloxyl (HCO2)-Radikals demonstriert - benötigt werden.rnrnDer konzeptionell einfache EOMIP-CC-Ansatz wurde gewählt, da hier die Wellenfunktion eines Radikalsystems ausgehend von einem stabilen geschlossenschaligen Zustand durch die Entfernung eines Elektrons gebildet wird und somit die Problematik der Symmetriebrechung umgangen werden kann. Im Rahmen der Implementierung wurden neue Programmteile zur Lösung der erforderlichen Gleichungen für die gestörten EOMIP-CC-Amplituden und die gestörten Lagrange-Multiplikatoren zeta zum Quantenchemieprogramm CFOUR hinzugefügt. Die unter Verwendung des Programms bestimmten Eigenschaften werden hinsichtlich ihrer Leistungsfähigkeit im Vergleich zu etablierten Methoden wie z.B. CCSD(T) untersucht. Bei der Berechnung von Polarisierbarkeiten und harmonischen Schwingungsfrequenzen liefert die EOMIP-CCSD-Theorie meist gute Resultate, welche nur wenig von den CCSD(T)-Ergebnissen abweichen. Einzig bei der Betrachtung von Radikalen, für die die entsprechenden Anionen nicht stabil sind (z.B. NH2⁻ und CH3⁻), liefert der EOMIP-CCSD-Ansatz aufgrund methodischer Nachteile keine aussagekräftige Beschreibung. rnrnDie Ableitungen der EOMIP-CCSD-Energie lassen sich auch zur Simulation vibronischer Kopplungen innerhalb des KDC-Modells einsetzen.rnZur Kopplung verschiedener radikalischer Zustände in einem solchen Modellpotential spielen vor allem die Ableitungen von Übergangsmatrixelementen eine wichtige Rolle. Diese sogenannten Kopplungskonstanten können in der EOMIP-CC-Theorie besonders leicht definiert und berechnet werden. Bei der Betrachtung des Photoelektronenspektrums von HCO2⁻ werden zwei Alternativen untersucht: Die vertikale Bestimmung an der Gleichgewichtsgeometrie des HCO2⁻-Anions und die Ermittlung adiabatischer Kraftkonstanten an den Gleichgewichtsgeometrien des Radikals. Lediglich das adiabatische Modell liefert bei Beschränkung auf harmonische Kraftkonstanten eine qualitativ sinnvolle Beschreibung des Spektrums. Erweitert man beide Modelle um kubische und quartische Kraftkonstanten, so nähern sich diese einander an und ermöglichen eine vollständige Zuordnung des gemessenen Spektrums innerhalb der ersten 1500 cm⁻¹. Die adiabatische Darstellung erreicht dabei nahezu quantitative Genauigkeit.
Resumo:
Negli ultimi anni si è assistito nel panorama mondiale ad un notevole ed importante cambiamento nell’asset della produzione dell’energia elettrica. L’aumentare del costo nell'estrazione dei combustibili fossili ed il conseguente impatto ambientale che questi hanno nell'atmosfera ha influito notevolmente sullo sviluppo e sulla diffusione della tecnologia fotovoltaica. L’evoluzione di questa tecnologia ha permesso di raggiungere la “grid parity”, ossia l’uguaglianza tra il costo di 1 kWh prodotto dal fotovoltaico con 1 kWh prodotto da fonti fossili, per molte aree del pianeta. Tale tecnologia non è recente, già negli anni ‘60 si svilupparono i primi studi a riguardo, ma negli ultimi anni ha subito notevoli migliorie che l’hanno portata ad essere competitiva nel settore dell’energia elettrica. Il presente lavoro di tesi riporta una rassegna delle celle solari a base di silicio, a partire dal silicio monocristallino, al silicio poli e multi cristallino, fino ad arrivare a celle a film sottile o celle costituite da materiali multi-fase contenenti strutture quantiche e nanocristalli di Si. Negli ultimi anni tutti gli studi si stanno concentrando su un nuovo tipo di fotovoltaico, quello di terza generazione, il cui scopo è quello di ottenere dispositivi che, ad un prezzo molto contenuto dovuto ad un utilizzo di materiali economici come i Si-NCs (nano cristalli di silicio), possano garantire elevate efficienze in modo tale che la tecnologia fotovoltaica sia in grado di affermarsi definitivamente nel settore dell’energia.
Resumo:
Negli ultimi anni uno dei settori di ricerca più interessanti in ambito tecnologico è sicuramente quello dell'elettronica organica. Lo sviluppo è spinto dai vantaggi che portano i dispositivi basati su materiali organici: bassi costi di produzione, facilità di fabbricazione su grandi aree e flessibilità. In questa tesi andiamo ad esaminare un transistor organico a effetto di campo (OFET) dal punto di vista macroscopico e microscopico, cercando di mettere in relazione le sue caratteristiche morfologiche ed elettriche. Il dispositivo sottoposto ai test è un OFET realizzato con TIPS-pentacene come semiconduttore. Dai risultati ottenuti si evince che le prestazioni elettriche del transistor sono fortemente legate alla microstruttura assunta dal materiale organico durante la deposizione. I primi due capitoli illustrano i principi di funzionamento degli OFET e la tecnica SPM (scanning probe microscopy) utilizzata per l'indagine microscopica. Il terzo e quarto capitolo descrivono rispettivamente gli apparati sperimentali e i risultati ottenuti dall'indagine su due aree diverse del dispositivo.
Resumo:
Questa tesi ha come oggetto di studio i problemi riscontrati nelle trascrizioni di testi orali in lingua inglese prodotte da 39 studenti della laurea magistrale in Interpretazione. Nel Capitolo 1 viene presentato l’ascolto, che viene definito prima da un punto di vista storico, poi analizzato come processo composto da quattro fasi, come sostiene Michael Rost (2011). Il capitolo si conclude con l’ascolto nell’ambito dell’interpretazione. Nel Capitolo 2 viene analizzato in maniera contrastiva l’apprendimento dell’ascolto nella prima e nella seconda lingua. I primi due capitoli forniscono le basi per comprendere il caso di studio. Il Capitolo 3 concerne la metodologia dello studio. Vengono presentati il metodo di analisi delle trascrizioni, la categorizzazione dei problemi riscontrati e il processo di creazione del sistema di analisi utilizzato. Nel Capitolo 4 vengono presentati i dati ottenuti seguendo il metodo esposto nel Capitolo 3. Si presentano i problemi riscontrati, che vengono suddivisi in categorie in base a ciò che può averli causati. Il Capitolo 5 è dedicato alle conclusioni. Qui vengono suggerite possibili strategie mirate ad aiutare gli studenti di Interpretazione a migliorare le proprie capacità di ascolto in lingua inglese. Esta tesis quiere analizar los problemas encontrados en transcripciones de textos orales en inglés hechas por 39 estudiantes del máster en Interpretación. En el Capítulo 1 se presenta la escucha, que se define primero desde una perspectiva histórica, y luego como un proceso formado por cuatro fases, como argumenta Michael Rost (2011). El capítulo se cierra con la escucha en el ámbito de la interpretación. En el Capítulo 2 se analizan de forma contrastiva el aprendizaje de la escucha en la primera y segunda lengua. Los primeros dos capítulos constituyen la base para comprender el caso de estudio. El Capítulo 3 atañe a la metodología del estudio. Se presentan el método de análisis de las transcripciones, la categorización de los problemas encontrados y el proceso de creación del sistema de análisis que se ha empleado. En el Capítulo 4 se proporcionan los datos obtenidos gracias al método presentado en el Capítulo 3. Se presentan los problemas encontrados, que han sido divididos en categorías según qué puede haberlos ocasionado. El Capítulo 5 está dedicado a las conclusiones. Aquí se sugieren posibles estrategias cuyo objetivo es ayudar a los estudiantes de Interpretación a mejorar sus capacidades de escucha en inglés.
Resumo:
Il Golfo di Taranto è una baia storica all’interno del Mar Ionio Settentrionale, Mar Mediterraneo Orientale. Sebbene il Mar Mediterraneo rappresenti meno dell’1% della superficie oceanica, presenta un alto livello di diversità biologica e si inserisce tra i primi 25 Biodiversity Hot Spot a livello globale. Esso purtroppo è anche uno dei bacini più antropizzati del mondo; tali pressioni mettono a serio rischio la conservazione di numerose specie, tra cui i Cetacei. Attualmente non sono presenti lavori riportanti dati di abbondanza dei Cetacei nel Golfo di Taranto: la mia ricerca vuole contribuire a colmare questo vuoto conoscitivo ed aggiungere nuove conoscenze sull’abbondanza dei Cetacei nel Mar Mediterraneo. Le aree di studio prese in esame si trovano nel Golfo di Taranto, sono contigue ed hanno la stessa superficie. Utilizzando il metodo del transetto lineare ed il software Distance 6.0 è stato possibile, raccogliere i dati di abbondanza dei delfinidi Stenella coeruleoalba e Truncatus truncatus ed analizzarli, ottenendo delle stime di abbondanza da confrontare con la serie storica disponibile (2009-2014). L’utilizzo del metodo del Distance Sampling, applicato per la prima volta nel Golfo di Taranto, è stato fondamentale perché ha permesso di colmare una lacuna conoscitiva sulla consistenza numerica associata alla nota presenza dei Cetacei nel Mar Ionio Settentrionale. I risultati ottenuti hanno reso possibile il confronto delle stime di abbondanza ottenute nel Golfo di Taranto con quelle del bacino ligure-corso-provenzale del Mediterraneo (Santuario Pelagos). Infatti è stato possibile rilevare che S. coeruleoalba presenta abbondanze generalmente inferiori ed un trend in diminuzione nel Santuario Pelagos, in netto contrasto con le maggiori abbondanze ed il trend in incremento evidenziato nel Golfo di Taranto e sintetizzato in questa tesi. Si evince, quindi la massima urgenza nell’implementare lo studio nel Golfo di Taranto, laddove la presenza di differenti specie di Cetacei e le stime di abbondanza di S. coeruleoalba e T. truncatus evidenziano la necessità di interventi di gestione finalizzati alla conservazione del patrimonio di diversità biologica del Mediterraneo.
Resumo:
Una teoria di unificazione ha il notevole compito di fornire un modello in grado di unificare le forze fondamentali della natura in una sola. Storicamente uno dei primi tentativi è rappresentato dal modello di Kaluza, che propone una formulazione unificata di gravità ed elettromagnetismo. In 4 dimensioni il campo gravitazionale e il campo elettromagnetico sono entità nettamente separate. Tale dualismo può essere superato estendendo la teoria della Relatività Generale ad uno spaziotempo a 5 dimensioni. Se alle consuete 4 si aggiunge una quinta dimensione spaziale, allora si dimostra che la gravità e l’elettromagnetismo possono essere visti come la manifestazione di un unico campo di forza, che è interpretabile in termini della geometria dello spaziotempo a 5 dimensioni. Nonostante i suoi intrinseci limiti, il modello di Kaluza rappresenta comunque un punto di partenza per molte altre teorie di campo unificato più moderne e a più di 5 dimensioni. L'obiettivo è di sviluppare le linee fondamentali del modello di Kaluza. Preliminarmente si riportano i risultati principali dell'elettromagnetismo e della Relatività Generale, dato che il modello si formula a partire da questi. Si stabilisce la condizione di cilindro, secondo cui le quantità fisiche non subiscono variazioni nella quinta dimensione. Si ipotizza un ansatz per il tensore metrico 5D e si scrivono le equazioni di campo unitario e della geodetica, come estensioni a 5 dimensioni di quelle in 4. Si dimostra che il campo unitario in 4 dimensioni si separa nel campo scalare costante, nel campo elettromagnetico e nel campo gravitazionale. Le componenti quadridimensionali della geodetica 5D riconducono a quella 4D e alle leggi del moto 4D in presenza dei campi gravitazionale ed elettromagnetico. Inoltre si interpreta la carica elettrica come la quinta componente della velocità covariante 5D.
Resumo:
Per il telescopio di neutrini ANTARES, sul quale è basata questa tesi, il principale problema nella ricostruzione delle tracce dei muoni provenienti dal basso, i quali possono essere generati solo da neutrini provenienti dall’emisfero sud che interagiscono nei pressi del rivelatore, è rappresentato dai muoni atmosferici (in particolare dagli sciami muonici). La luce Cherenkov da essi prodotta può essere utilizzata per ricostruire erroneamente tracce dirette verso l’alto (upgoing). Lo scopo di questa tesi è la valutazione, tramite un metodo Montecarlo, della probabilità che i muoni atmosferici vengano ricostruiti come muoni diretti verso l’alto. L’esposizione è organizzata in quattro capitoli: nei primi due vengono descritti la fisica dell’astronomia a neutrini e i principi di funzionamento di un telescopio di neutrini, con particolare attenzione al telescopio ANTARES.Nel terzo capitolo è riportata la descrizione del software utilizzato per simulare lo sciame di muoni atmosferici e la conseguente risposta del rivelatore. Infine, nel quarto capitolo, sono presentati i grafici eseguiti con ROOT che riassumono ed evidenziano i risultati della simulazione.