950 resultados para risolubilità radicali equazioni polinomiali teoria di Galois gruppi risolubili estensioni radicali risolubili


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ho studiato la possibilità di soluzione per il problema cosmologico dei moduli (CMP) presente a causa della compattificazione delle dimensioni extra tramite un periodo di inflazione a basse energie (Thermal Inflation). L'elaborato consta di cinque capitoli. Il primo introduce il lettore alla problematica dei moduli partendo dalla teoria Kaluza-Klein. Il secondo riguarda interamente il CMP e altri problemi cosmologici associati ai moduli. Nel terzo viene descritta la thermal inflation e le condizioni di funzionamento. Nel quarto capitolo viene preso in esame il problema di stabilizzazione dei moduli nella teoria di stringa tipo IIB: vengono descritti sia il meccanismo KKTL che il LVS. L'ultimo capitolo consiste nel calcolo della diluizione dei moduli, enunciata prima in un contesto generale e infine applicata al LVS, tramite la thermal inflation. Viene altresì presa in esame la possibilità di due epoche di thermal inflation, al fine di ottenere una diluizione più efficiente dei moduli. In LVS sono presenti due moduli, differenti per massa e vita media. Il più leggero è soggetto al CMP e si trova che, anche dopo due periodi di thermal inflation vi è ancora un numero eccessivo di tali campi, in quanto se da un lato la thermal inflation ne diliusca la densità iniziale, dall'altro ne causa una forte riproduzione, dovuta essenzialmente alle caratteristiche del modulo

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Obiettivo Analisi di consumi e costi degli antibiotici sistemici negli ospedali dell’Emilia-Romagna dal 2004 al 2011, con attenzione alla variabilità interaziendale e al significato, in termini di resistenza batterica, dell’aumento di alcuni gruppi terapeutici; Sottoanalisi nei reparti pediatrici, individuando i gruppi terapeutici critici, e valutazione delle reazioni avverse pediatriche da antibiotici segnalate, per il periodo in esame. Metodi I dati di consumo e spesa degli antibiotici sistemici per il periodo 2004-2011 sono stati ottenuti dal database regionale AFO e le giornate di degenza per ogni reparto dal database regionale di dimissione ospedaliera SDO. Le segnalazioni di sospette reazioni avverse da antibiotici tra gennaio 2004 e dicembre 2011 sono state estratte dal database nazionale VigiSegn. Risultati Negli otto anni, il consumo di antibiotici negli ospedali dell’Emilia-Romagna è aumentato del 27% e la spesa del 3%. Il consumo è apparso nettamente superiore nei reparti chirurgici che medici. La prima classe per consumo e spesa sono le penicilline/inibitori delle beta lattamasi. Nei reparti pediatrici, sono stati utilizzati 65 principi attivi diversi e amoxicillina/acido clavulanico è stato il più usato (26% del totale del 2011). Tra gli antibiotici critici, le cefalosporine di terza generazione sono state le più consumate in tutti i reparti pediatrici nel 2011. Tra le molecole il cui uso ospedaliero è vincolato, spiccano il linezolid e la teicoplanina che, comunque, hanno inciso più di tutte nella spesa del 2011 (18% e 15%, rispettivamente). Per la farmacovigilanza, i bambini (3-13 anni) sono stati coinvolti in 23 casi, mentre gli infanti (≤2 anni) solo in 4. L’associazione amoxicillina/acido clavulanico è stata più frequentemente segnalata (n=7), e soltanto 2 casi erano gravi. Conclusioni I risultati mostrano un quadro critico sul massiccio uso delle cefalosporine di terza generazione e sull’incremento del linezolid, da approfondire se per inappropriatezza d’uso oppure per aumento delle resistenze batteriche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Partiamo dal lavoro di Kolmogorov per definire una misura della quantità di informazione contenuta in una stringa tramite un approccio computazionale: la complessità di una stringa è la lunghezza del più corto programma capace di produrla. Vediamo poi gli sviluppi moderni di questa teoria, in particolare i contributi di Chaitin, e notiamo subito i forti legami con la teoria della probabilità e con l'entropia di Shannon. Successivamente proponiamo di identificare le stringhe casuali (nel senso intuitivo) con quelle algoritmicamente incomprimibili, seguendo l'idea che minore comprimibilità significhi minore regolarità e dunque maggiore casualità. Infine vediamo che, in effetti, le stringhe incomprimibili soddisfano tutte le proprietà stocastiche effettivamente verificabili, cioè le proprietà che la teoria della probabilità attribuisce a successioni di variabili aleatorie indipendenti e identicamente distribuite. Facciamo ciò in maniera generale utilizzando la notevole teoria di Martin-Löf e poi vediamo in dettaglio l'aspetto della normalità di Borel.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I tumori, detti anche ''la malattia del secolo'', portano ogni anno alla morte di oltre 7 milioni di persone al mondo. Attualmente è una malattia molto diffusa che colpisce soprattutto persone anziane e non solo; tuttavia ancora non esiste una cura ''esatta'' che riesca a guarire la totalità delle persone: anzi si è ben lontani da questo risultato. La difficoltà nel curare queste malattie sta nel fatto che, oltre ad esservi una grande varietà di tipologie (è quindi difficile trovare una cura unica), spesse volte la malattie viene diagnosticata molto tempo dopo la comparsa per via dei sintomi che compaiono in ritardo: si intende quindi che si parla di una malattia molto subdola che spesse volte lascia poche speranze di vita. Uno strumento, utilizzato assieme alla terapie mediche, è quello della modellizzazione matematica: essa cerca di descrivere e prevedere, tramite equazioni, lo sviluppo di questo processo e, come ben si intenderà, poter conoscere in anticipo quel che accadrà al paziente è sicuramente un fattore molto rilevante per la sua cura. E' interessante vedere come una materia spesso definita come "noiosa" ed ''inutile'', la matematica, possa essere utilizzata per i più svariati, come -nel caso specifico- quello nobile della cura di un malato: questo è un aspetto di tale materia che mi ha sempre affascinato ed è anche una delle ragioni che mi ha spinto a scrivere questo elaborato. La tesi, dopo una descrizione delle basi oncologiche, si proporrà di descrivere le neoplasie da un punto di vista matematico e di trovare un algoritmo che possa prevedere l'effetto di una determinata cura. La descrizione verrà fatta secondo vari step, in modo da poter rendere la trattazione più semplice ed esaustiva per il lettore, sia egli esperto o meno dell'argomento trattato. Inizialmente si terrano distinti i modelli di dinamica tumorale da quelli di cinetica farmacologica, ma poi verrano uniti ed utilizzati assieme ad un algoritmo che permetta di determinare l'effetto della cura e i suoi effetti collaterali. Infine, nella lettura dell'elaborato il lettore deve tenere sempre a mente che si parla di modelli matematici ovvero di descrizioni che, per quanto possano essere precise, sono pur sempre delle approssimazioni della realtà: non per questo però bisogna disdegnare uno strumento così bello ed interessante -la matematica- che la natura ci ha donato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il seguente lavoro di tesi ripercorre la teoria classica della fluidodinamica, dalle leggi di conservazione alla derivazione dell'equazione di Navier-Stokes. Introdotto il numero di Reynolds R e delineate le caratteristiche dei flussi laminari e turbolenti viene posta maggiore attenzione su questi ultimi, derivando le RANS ed esponendo le principali teorie fisiche della turbolenza. Vengono quindi trattate le perturbazioni acustiche, nella loro forma lineare tipica delle radiazioni generate da corpi vibranti e nella forma non-lineare tipica delle radiazioni generate da flussi. Il suono aerodinamico, generato da flussi, è affrontato mediante la teoria di Lighthill, che formula un'analogia tra flussi e mezzi acustici a riposo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il collasso di diverse colonne, caratterizzate da danneggiamenti simili, quali ampie fessure fortemente inclinate ad entrambe le estremità dell’elemento, lo schiacciamento del calcestruzzo e l’instabilità dei ferri longitudinali, ha portato ad interrogarsi riguardo gli effetti dell’interazione tra lo sforzo normale, il taglio ed il momento flettente. Lo studio è iniziato con una ricerca bibliografica che ha evidenziato una sostanziale carenza nella trattazione dell’argomento. Il problema è stato approcciato attraverso una ricerca di formule della scienza delle costruzioni, allo scopo di mettere in relazione lo sforzo assiale, il taglio ed il momento; la ricerca si è principalmente concentrata sulla teoria di Mohr. In un primo momento è stata considerata l’interazione tra solo due componenti di sollecitazione: sforzo assiale e taglio. L’analisi ha condotto alla costruzione di un dominio elastico di taglio e sforzo assiale che, confrontato con il dominio della Modified Compression Field Theory, trovata tramite ricerca bibliografica, ha permesso di concludere che i risultati sono assolutamente paragonabili. L’analisi si è poi orientata verso l’interazione tra sforzo assiale, taglio e momento flettente. Imponendo due criteri di rottura, il raggiungimento della resistenza a trazione ed a compressione del calcestruzzo, inserendo le componenti di sollecitazione tramite le formule di Navier e Jourawsky, sono state definite due formule che mettono in relazione le tre azioni e che, implementate nel software Matlab, hanno permesso la costruzione di un dominio tridimensionale. In questo caso non è stato possibile confrontare i risultati, non avendo la ricerca bibliografica mostrato niente di paragonabile. Lo studio si è poi concentrato sullo sviluppo di una procedura che tenta di analizzare il comportamento di una sezione sottoposta a sforzo normale, taglio e momento: è stato sviluppato un modello a fibre della sezione nel tentativo di condurre un calcolo non lineare, corrispondente ad una sequenza di analisi lineari. La procedura è stata applicata a casi reali di crollo, confermando l’avvenimento dei collassi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La simulazione di un sistema quantistico complesso rappresenta ancora oggi una sfida estremamente impegnativa a causa degli elevati costi computazionali. La dimensione dello spazio di Hilbert cresce solitamente in modo esponenziale all'aumentare della taglia, rendendo di fatto impossibile una implementazione esatta anche sui più potenti calcolatori. Nel tentativo di superare queste difficoltà, sono stati sviluppati metodi stocastici classici, i quali tuttavia non garantiscono precisione per sistemi fermionici fortemente interagenti o teorie di campo in regimi di densità finita. Di qui, la necessità di un nuovo metodo di simulazione, ovvero la simulazione quantistica. L'idea di base è molto semplice: utilizzare un sistema completamente controllabile, chiamato simulatore quantistico, per analizzarne un altro meno accessibile. Seguendo tale idea, in questo lavoro di tesi si è utilizzata una teoria di gauge discreta con simmetria Zn per una simulazione dell'elettrodinamica quantistica in (1+1)D, studiando alcuni fenomeni di attivo interesse di ricerca, come il diagramma di fase o la dinamica di string-breaking, che generalmente non sono accessibili mediante simulazioni classiche. Si propone un diagramma di fase del modello caratterizzato dalla presenza di una fase confinata, in cui emergono eccitazioni mesoniche ed antimesoniche, cioè stati legati particella-antiparticella, ed una fase deconfinata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'indagine ha riguardato il profilo del vento nei primi 30 metri dello strato limite atmosferico stabile nell'ambito della teoria di similarità locale. Ad oggi, diversi esperimenti hanno confermato la validità della teoria per strati-limite su terreni livellati e superfici omogenee. Tali condizioni ideali sono però infrequenti nella realtà ed è perciò importante capire quali siano i limiti della similarità locale per strati-limite su terreni complessi e superfici disomogenee. Entrambe le condizioni sono presenti a Ny-Alesund (Svalbard, Norvegia) dove il Consiglio Nazionale delle Ricerche (CNR), nel 2009, ha installato una torre di 30 m, la Amudsen-Nobile Climate Change Tower (CCT), per lo studio dello strato-limite artico. Il lavoro di tesi ha riguardato misure di vento e turbolenza acquisite sulla CCT da maggio 2012 a maggio 2014. Il confronto tra le velocità del vento misurate dagli anemometri installati sulla CCT, ha rivelato criticità nel dato sonico manifestatesi con sovrastime sistematiche e maggiore erraticità rispetto alle misure provenienti dagli anemometri a elica. Un test condotto fra diversi metodi per il calcolo dei gradienti verticali della velocità del vento ha rivelato scarsa sensibilità dei risultati ottenuti al particolare metodo utilizzato. Lo studio ha riguardato i gradienti verticali adimensionali della velocità del vento nei primi 30-m dello strato limite stabile. Deviazioni significative tra i tra le osservazioni e i valori predetti dalla similarità locale sono state osservate in particolare per i livelli più distanti dal suolo e per valori crescenti del parametro di stabilità z/L (L, lunghezza di Obukhov locale). In particolare, si sono osservati gradienti adimensionali inferiori a quelli predetti dalle più usate relazioni di flusso-gradiente. Tali deviazioni, presenti perlopiù per z/L>0.1, sono state associate ad un effetto di accentuazione della turbolenza da parte delle irregolarità del terreno. Per condizioni meno stabili, z/L<0.1, scarti positivi tra i gradienti osservati e quelli attesi sono stati attribuiti alla formazione di strati limite interni in condizioni di vento dal mare verso la costa. Sono stati proposti diversi metodi per la stima dell'effetto della self-correlazione nella derivazione delle relazioni di flusso-gradiente, dovuta alla condivisione della variabile u*. La formula per il coefficiente lineare di self correlazione e le sue distribuzioni di probabilità empiriche sono state derivate e hanno permesso di stimare il livello di self-correlazione presente nel dataset considerato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il progetto rappresenta una proposta, di natura architettonico-urbana, per la città di Berlino, nel settore orientale. Questa proposta è il risultato di un percorso di studi che si è dapprima confrontato sul tema della città alla grande scala, per poi focalizzarsi sul distretto della Karl-Marx-Allee lo storico brano di città socialista in Berlino Est. L’obiettivo della ricerca si cristallizza in un programma architettonico di nuova costruzione per un isolato urbano del distretto sopracitato, disorganizzato ed informale, apparentemente emarginato dalla città per opera di una serie di ‘barriere urbane’. Queste barriere, il grande attraversamento sulla Holzmarkstraße, il viadotto della S-Bahn, il fiume Sprea, nel tempo intrecciati e sovrascritti, rappresentano i limiti e confini dell’isolato urbano. L’architettura proposta vuole confrontarsi, in questo contesto incerto, con la ricostruzione dell’isolato, in fede ai principi delle ‘ricostruzione critica’. Il disegno d’architettura rivede, per analogia, i contenuti della città storica, esprimendosi attraverso un linguaggio contemporaneo ma in continuità con la storia ed il contesto. Il tema della serialità, del ritmo, scandirà un percorso architettonico geometrico e modulare molto forte e rigoroso che risponderà al carattere ripetitivo e pre-costituito dei plattenbausiedlungen, gli insediamenti prefabbricati, patrimonio materiale dell’ex distretto socialista di Berlino. La forza ritmica del progetto verrà ribadita dal recupero architettonico del viadotto in muratura del trasporto metropolitano leggero della S-Bahn, una teoria di archivolti a botte in affaccio alla Sprea. Il nuovo scenario architettonico si può considerare come un unico grande elemento tematico, organizzato da una maglia rigorosa, argomentato da eccezioni e salienti che rispondono ad un’ampia domanda funzionale, tipologica ed architettonica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi di laurea è stata svolta presso l’Università di Scienze Applicate di Rosenheim, in Germania; il progetto di ricerca si basa sulla tecnica di rinforzo conosciuta come “Soil Nailing”, che consiste nella costruzione di un’opera di sostegno nella realizzazione di pareti di scavo o nel consolidamento di versanti instabili. L’obiettivo principale dell’elaborato sarà quello di valutare la fattibilità dell’impiego di tubi fabbricati con legno di faggio, in sostituzione dei chiodi d’acciaio comunemente utilizzati; la scelta di questo tipo di legno è dettata dalla larga disponibilità presente in Germania. La sollecitazione principale su tali tubi sarà di trazione parallela alla fibratura, tramite test sperimentali è stato possibile valutare tale resistenza nelle diverse condizioni in cui si verrà a trovare il tubo dopo l’installazione nel terreno. A tal proposito è necessario specificare che, l’indagine per risalire all’influenza che le condizioni ambientali esercitano sull’elemento, verrà condotta su provini costituiti da un singolo strato di legno; in tal modo si può apprezzare l’influenza direttamente sull’elemento base e poi risalire al comportamento globale. I dati ottenuti dall’indagine sperimentale sono stati elaborati tramite la teoria di Weibull, largamente utilizzata in tecnologia dei materiali per quanto riguarda materiali fragili come il legno; tali distribuzioni hanno permesso la determinazione della resistenza caratteristica dei provini per ogni condizione ambientale d’interesse. Per quanto riguarda la valutazione della fattibilità dell’uso di tubi in legno in questa tecnica di consolidamento, è stato eseguito il dimensionamento del tubo, utilizzando i dati a disposizione ottenuti dall’indagine sperimentale eseguita; ed infine sono state eseguite le verifiche di stabilità dell’intervento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Studio delle principali proprietà dei fluidi e dei vortici classici. Teorie sui gas di Bose ideali e debolmente interagenti. Proprietà dell'He II. La superfluidità. Cenni alla teoria di Landau e soluzione vorticosa della GPE. Fenomenologia dei vortici quantizzati e quantizzazione della circolazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio si occupa di fluency e analizza alcuni aspetti che la definiscono (pause vuote, pause piene, segnali discorsivi, riformulazioni). Si analizzano frequenza e durata di tali fenomeni, attraverso due corpora di produzioni orali di due gruppi di parlanti della lingua inglese: gli studenti italiani del corso di Mediazione Linguistica Interculturale della Scuola di Lingue, Letterature, Interpretazione e Traduzione di Forlì, Università di Bologna, e partecipanti britannici di un programma radiofonico. Si è ritenuto utile comparare le produzioni orali di studenti della lingua inglese a quelle di oratori pubblici madrelingua. Si è cercato di bilanciare i due corpora in termini di genere. Sono stati utilzzati i software Praat, per identificare la morfologia e la durata delle variabili, e Notetab Light, per l'annotazione dei corpora. I risultati della ricerca mostrano che le differenze maggiori tra i due gruppi risiedono nella durata delle pause vuote e nella frequenza, durata e e varietà di suoni delle pause piene, oltre a sillabe aggiuntive, sillabe allungate e riformulazioni. Le sillabe aggiuntive appaiono tipiche della produzione orale degli studenti italiani, in quanto, per la maggior parte, le parole della lingua italiana terminano con un suono vocalico. E' inoltre emersa una questione di genere. Le parlanti di sesso femminile, in entrambi i corpora, impiegano maggiormente le variabili della fluency prese in esame, rispetto ai parlanti di sesso maschile. Sulla base di questa ricerca e ricerche future si potranno ideare moduli di insegnamento dell'inglese basati sulla fluency come fattore primario di competenza linguistica. Il Capitolo 1 introduce lo studio. Il Capitolo 2 presenta lo stato dell'arte sul tema. Il Capitolo 3 presenta la metodologia dello studio. Il Capitolo 4 è dedicato a illustrare e discutere i risultati della ricerca. Il Capitolo 5 presenta considerazioni conclusive e future prospettive per l'insegnamento dell'inglese e per la ricerca.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Teoria di Densità Funzionale (DFT) e la sua versione dipendente dal tempo (TDDFT) sono strumenti largamente usati per simulare e calcolare le proprietà statiche e dinamiche di sistemi con elettroni interagenti. La precisione del metodo si basa su una serie di approssimazioni degli effetti di exchange correlation fra gli elettroni, descritti da un funzionale della sola densità di carica. Nella presente tesi viene testata l'affidabilità del funzionale Mixed Localization Potential (MLP), una media pesata fra Single Orbital Approximation (SOA) e un potenziale di riferimento, ad esempio Local Density Approximation (LDA). I risultati mostrano capacità simulative superiori a LDA per i sistemi statici (curando anche un limite di LDA noto in letteratura come fractional dissociation) e dei progressi per sistemi dinamici quando si sviluppano correnti di carica. Il livello di localizzazione del sistema, inteso come la capacità di un elettrone di tenere lontani da sé altri elettroni, è descritto dalla funzione Electron Localization Function (ELF). Viene studiato il suo ruolo come guida nella costruzione e ottimizzazione del funzionale MLP.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El ensayo examina la cuestión de la aplicación de las reglas y de la capacidad real para tratar casos específicos, llegando a la conclusión de que es la excepción la que confirma la regla, a condición de que sea dialógicamente construida, para que sea interpretable y aplicable por parte de sus numerosos destinatarios en las políticas públicas más complejas y conflictuales, sobre todo a nivel local.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La crescente disponibilità di dispositivi meccanici e -soprattutto - elettronici le cui performance aumentano mentre il loro costo diminuisce, ha permesso al campo della robotica di compiere notevoli progressi. Tali progressi non sono stati fatti unicamente per ciò che riguarda la robotica per uso industriale, nelle catene di montaggio per esempio, ma anche per quella branca della robotica che comprende i robot autonomi domestici. Questi sistemi autonomi stanno diventando, per i suddetti motivi, sempre più pervasivi, ovvero sono immersi nello stesso ambiente nel quale vivono gli essere umani, e interagiscono con questi in maniera proattiva. Essi stanno compiendo quindi lo stesso percorso che hanno attraversato i personal computer all'incirca 30 anni fa, passando dall'essere costosi ed ingombranti mainframe a disposizione unicamente di enti di ricerca ed università, ad essere presenti all'interno di ogni abitazione, per un utilizzo non solo professionale ma anche di assistenza alle attività quotidiane o anche di intrattenimento. Per questi motivi la robotica è un campo dell'Information Technology che interessa sempre più tutti i tipi di programmatori software. Questa tesi analizza per prima cosa gli aspetti salienti della programmazione di controllori per robot autonomi (ovvero senza essere guidati da un utente), quindi, come l'approccio basato su agenti sia appropriato per la programmazione di questi sistemi. In particolare si mostrerà come un approccio ad agenti, utilizzando il linguaggio di programmazione Jason e quindi l'architettura BDI, sia una scelta significativa, dal momento che il modello sottostante a questo tipo di linguaggio è basato sul ragionamento pratico degli esseri umani (Human Practical Reasoning) e quindi è adatto alla implementazione di sistemi che agiscono in maniera autonoma. Dato che le possibilità di utilizzare un vero e proprio sistema autonomo per poter testare i controllori sono ridotte, per motivi pratici, economici e temporali, mostreremo come è facile e performante arrivare in maniera rapida ad un primo prototipo del robot tramite l'utilizzo del simulatore commerciale Webots. Il contributo portato da questa tesi include la possibilità di poter programmare un robot in maniera modulare e rapida per mezzo di poche linee di codice, in modo tale che l'aumento delle funzionalità di questo risulti un collo di bottiglia, come si verifica nella programmazione di questi sistemi tramite i classici linguaggi di programmazione imperativi. L'organizzazione di questa tesi prevede un capitolo di background nel quale vengono riportare le basi della robotica, della sua programmazione e degli strumenti atti allo scopo, un capitolo che riporta le nozioni di programmazione ad agenti, tramite il linguaggio Jason -quindi l'architettura BDI - e perché tale approccio è adatto alla programmazione di sistemi di controllo per la robotica. Successivamente viene presentata quella che è la struttura completa del nostro ambiente di lavoro software che comprende l'ambiente ad agenti e il simulatore, quindi nel successivo capitolo vengono mostrate quelle che sono le esplorazioni effettuate utilizzando Jason e un approccio classico (per mezzo di linguaggi classici), attraverso diversi casi di studio di crescente complessità; dopodiché, verrà effettuata una valutazione tra i due approcci analizzando i problemi e i vantaggi che comportano questi. Infine, la tesi terminerà con un capitolo di conclusioni e di riflessioni sulle possibili estensioni e lavori futuri.