966 resultados para poliedri formula di Eulero teorema di rigidità di Cauchy
Resumo:
Il presente lavoro ha come obiettivo la definizione e la misura della complessità tecnologica, al fine di costruire strumenti a supporto di tutti gli operatori che si occupano dello sviluppo e della fabbricazione di un prodotto industriale, quali progettisti di prodotto e responsabili di produzione. La ricerca è stata sviluppata attraverso le fasi di seguito descritte. Analisi dello stato dell’arte su definizioni e misure della complessità in ambito industriale attraverso l’individuazione e studio di oltre un centinaio di pubblicazioni al riguardo. Classificazione dei metodi proposti in letteratura per la misura della complessità in cinque categorie e analisi critica dei punti di forza e di debolezza dei differenti metodi, ai fini di orientare la elaborazione di un nuovo metodo. Sono stati inoltre analizzati i principali metodi di Intelligenza Artificiali quali potenziali strumenti di calcolo della complessità. Indagine su tematiche correlate alla complessità quali indicatori, trasferimento tecnologico e innovazione. La complessità viene misurata in termini di un indice che appartiene alla categoria degli indicatori, utilizzati in molti ambiti industriali, in particolare quello della misura delle prestazioni di produzione. In particolare si è approfondito significato e utilizzo dell’OEE (Overall Equipment Effectiveness), particolarmente diffuso nelle piccole medie imprese emilianoromagnole e in generale dalle aziende che utilizzano un sistema produttivo di tipo job-shop. È stato implementato un efficace sistema di calcolo dell’OEE presso una azienda meccanica locale. L’indice di complessità trova una delle sue più interessanti applicazioni nelle operazioni di trasferimento tecnologico. Introdurre un’innovazione significa in genere aumentare la complessità del sistema, quindi i due concetti sono connessi. Sono stati esaminati diversi casi aziendali di trasferimento di tecnologia e di misura delle prestazioni produttive, evidenziando legami e influenza della complessità tecnologica sulle scelte delle imprese. Elaborazione di un nuovo metodo di calcolo di un indice di complessità tecnologica di prodotto, a partire dalla metodologia ibrida basata su modello entropico proposta dai Prof. ElMaraghy e Urbanic nel 2003. L’attenzione è stata focalizzata sulla sostituzione nella formula originale a valori determinati tramite interviste agli operatori e pertanto soggettivi, valori oggettivi. Verifica sperimentale della validità della nuova metodologia attraverso l’applicazione della formula ad alcuni componenti meccanici grazie alla collaborazione di un’azienda meccanica manifatturiera. Considerazioni e conclusioni sui risultati ottenuti, sulla metodologia proposta e sulle applicazioni del nuovo indice, delineando gli obiettivi del proseguo della ricerca. In tutto il lavoro si sono evidenziate connessioni e convergenze delle diverse fonti e individuati in diversi ambiti concetti e teorie che forniscono importanti spunti e considerazioni sul tema della complessità. Particolare attenzione è stata dedicata all’intera bibliografia dei Prof. ElMaraghy al momento riconosciuti a livello internazionale come i più autorevoli studiosi del tema della complessità in ambito industriale.
Resumo:
Data coming out from various researches carried out over the last years in Italy on the problem of school dispersion in secondary school show that difficulty in studying mathematics is one of the most frequent reasons of discomfort reported by students. Nevertheless, it is definitely unrealistic to think we can do without such knowledge in today society: mathematics is largely taught in secondary school and it is not confined within technical-scientific courses only. It is reasonable to say that, although students may choose academic courses that are, apparently, far away from mathematics, all students will have to come to terms, sooner or later in their life, with this subject. Among the reasons of discomfort given by the study of mathematics, some mention the very nature of this subject and in particular the complex symbolic language through which it is expressed. In fact, mathematics is a multimodal system composed by oral and written verbal texts, symbol expressions, such as formulae and equations, figures and graphs. For this, the study of mathematics represents a real challenge to those who suffer from dyslexia: this is a constitutional condition limiting people performances in relation to the activities of reading and writing and, in particular, to the study of mathematical contents. Here the difficulties in working with verbal and symbolic codes entail, in turn, difficulties in the comprehension of texts from which to deduce operations that, once combined together, would lead to the problem final solution. Information technologies may support this learning disorder effectively. However, these tools have some implementation limits, restricting their use in the study of scientific subjects. Vocal synthesis word processors are currently used to compensate difficulties in reading within the area of classical studies, but they are not used within the area of mathematics. This is because the vocal synthesis (or we should say the screen reader supporting it) is not able to interpret all that is not textual, such as symbols, images and graphs. The DISMATH software, which is the subject of this project, would allow dyslexic users to read technical-scientific documents with the help of a vocal synthesis, to understand the spatial structure of formulae and matrixes, to write documents with a technical-scientific content in a format that is compatible with main scientific editors. The system uses LaTex, a text mathematic language, as mediation system. It is set up as LaTex editor, whose graphic interface, in line with main commercial products, offers some additional specific functions with the capability to support the needs of users who are not able to manage verbal and symbolic codes on their own. LaTex is translated in real time into a standard symbolic language and it is read by vocal synthesis in natural language, in order to increase, through the bimodal representation, the ability to process information. The understanding of the mathematic formula through its reading is made possible by the deconstruction of the formula itself and its “tree” representation, so allowing to identify the logical elements composing it. Users, even without knowing LaTex language, are able to write whatever scientific document they need: in fact the symbolic elements are recalled by proper menus and automatically translated by the software managing the correct syntax. The final aim of the project, therefore, is to implement an editor enabling dyslexic people (but not only them) to manage mathematic formulae effectively, through the integration of different software tools, so allowing a better teacher/learner interaction too.
Resumo:
La tesi tratta dei gruppi semplici sporadici, in particolar modo dei gruppi di Mathieu. Sono state ripercorse tappe storiche fondamentali, a partire dalla semplicità del gruppo alterno An, n>4, nota a Galois, fino a giungere al teorema di classificazione dei gruppi semplici, di cui i gruppi sporadici rappresentano un caso particolare. Vengono poi proposte diverse costruzioni dei gruppi di Mathieu, passando dall'algebra alla geometria fino alla teoria dell'informazione. Quindi vengono discusse le proprietà principali dei gruppi di Mathieu, e infine si presentano congetture in cui i gruppi di Mathieu, o più in generale i gruppi sporadici, giocano un ruolo fondamentale, come ad esempio nella congettura "moonshine". Al termine della tesi vengono presentati i gruppi di Mathieu in ambiti diversi dal mondo matematico, dal gioco alla musica.
Resumo:
Nella mia tesi di dottorato mi propongo di indagare la metamorfosi del romanzo nella letteratura italiana contemporanea attraverso il lavoro di Paolo Volponi, che può essere descritto come un’«opera mondo», in accordo con la formula critica coniata da Franco Moretti. Volponi intende superare il divario fra l’io e il mondo e ricomporre il corpo come una mediazione umanistica di ragione e sensi. La sua opera può essere definita ‘epica’ perché recupera la tradizione del romanzo cavalleresco e la parodia esercitata su questa tradizione letteraria da Cervantes nel Don Chisciotte. Ma, come l’Ulysses di Joyce, è un’epica «moderna» perché fondata su una totalità disgiunta e sul conflitto dialogico, in una linea che accomuna la moltiplicazione dei punti di vista, propria del romanzo polifonico secondo Bachtin, alla pluralità di prospettive del discorso scientifico. Dopo un primo capitolo teorico, nel secondo e nel terzo capitolo della tesi i romanzi di Volponi vengono studiati in rapporto al filone dell’«epica moderna» e al genere satirico, che ha un suo modello fondativo nell’opera di Giacomo Leopardi. Il quarto capitolo si focalizza sulle ultime raccolte poetiche, che mostrano la tendenza a recuperare il linguaggio formulare e la matrice orale della poesia delle origini, servendosene per rappresentare in funzione contrappuntistica l’universo globale dell’età contemporanea.
Resumo:
Le più moderne e diffuse applicazioni wireless attuali sono dedicate a sistemi distribuiti in grandi quantità ed il più possibile miniaturizzati. In questa tesi si discute di tecniche di miniaturizzazione delle antenne di questi sistemi. Tradizionalmente tali tecniche si sono basate su substrati ad elevata costante dielettrica che hanno però, come contropartita, un deterioramento delle prestazioni radianti. Un'alternativa molto promettente è offerta da substrati magneto-dielettrici che, pur garantendo analoghe riduzioni degli ingombri, possono offrire migliori opportunità per il comportamento radiante e per l'adattamento dell'antenna al resto del sistema. In questa tesi, partendo dallo stato dell'arte della letteratura scientifica, si è sviluppato un modello che consente di valutare a priori i vantaggi/svantaggi di diverse topologie d'antenne basate su substrati magneto-dielettrici. Il metodo si basa sul teorema di equivalenza. Infine la tesi affronta il problema di sviluppare un metodo per la caratterizzazione dei parametri costitutivi di tali materiali.
Resumo:
In questo lavoro verrà analizzato lo sviluppo di una nuova modellazione matematica per la simulazione della dinamica del flusso all’interno del sistema di aspirazione per motori sovralimentati. Tale modellazione si basa sulla risoluzione numerica mediante la formulazione proposta da Courant, Isaacson e Rees (CIR) nel 1952 per il set delle equazioni non conservative di Eulero per il caso monodimensionale. L’applicazione attraverso il software Matlab-Simulink di tali discretizzazioni numeriche garantisce la possibilità di calcolare la dinamica del flusso all’interno del condotto. L’innovazione proposta da questo lavoro consiste nel considerare l’intero stato da iterare come un vettore, permettendo di gestire parte delle operazioni da compiere con delle matrici. Questo approccio è stato adottato sia per una maggior velocità di calcolo, sia per rendere più agevole la modifica della geometria, ad esempio in fase di progettazione. La routine di lancio del nuovo modello, infatti, gestirà autonomamente la scrittura delle matrici, a partire dai pochi parametri necessari per la definizione della geometria all’interno del codice. Si andranno quindi a presentare i passaggi più importanti che hanno portato alla scrittura del codice, con particolare attenzione poi alla fase di validazione del modello. Essa sarà basata sia su un altro codice presente in letteratura, modellato anch’esso attraverso risoluzione CIR, sia mediante dati sperimentali utilizzati per la validazione di tale implementazione. Seguirà infine un’analisi dettagliata sui fattori che influenzano, positivamente e negativamente, l’esito delle simulazioni realizzate, come la discretizzazione spaziale e quella temporale, prestando sempre particolare attenzione alla stabilità del metodo.
Resumo:
L’attività di ricerca contenuta in questa tesi si è concentrata nello sviluppo e nell’implementazione di tecniche per la co-simulazione e il co-progetto non lineare/elettromagnetico di sistemi wireless non convenzionali. Questo lavoro presenta un metodo rigoroso per considerare le interazioni tra due sistemi posti sia in condizioni di campo vicino che in condizioni di campo lontano. In sostanza, gli effetti del sistema trasmittente sono rappresentati da un generatore equivalente di Norton posto in parallelo all’antenna del sistema ricevente, calcolato per mezzo del teorema di reciprocità e del teorema di equivalenza. La correttezza del metodo è stata verificata per mezzo di simulazioni e misure, concordi tra loro. La stessa teoria, ampliata con l’introduzione degli effetti di scattering, è stata usata per valutare una condizione analoga, dove l’elemento trasmittente coincide con quello ricevente (DIE) contenuto all’interno di una struttura metallica (package). I risultati sono stati confrontati con i medesimi ottenibili tramite tecniche FEM e FDTD/FIT, che richiedono tempi di simulazione maggiori di un ordine di grandezza. Grazie ai metodi di co-simulazione non lineari/EM sopra esposti, è stato progettato e verificato un sistema di localizzazione e identificazione di oggetti taggati posti in ambiente indoor. Questo è stato ottenuto dotando il sistema di lettura, denominato RID (Remotely Identify and Detect), di funzioni di scansione angolare e della tecnica di RADAR mono-pulse. Il sistema sperimentale, creato con dispositivi low cost, opera a 2.5 GHz ed ha le dimensioni paragonabili ad un normale PDA. E’ stato sperimentata la capacità del RID di localizzare, in scenari indoor, oggetti statici e in movimento.
Resumo:
The purpose of this dissertation is to prove that the Dirichlet problem in a bounded domain is uniquely solvable for elliptic equations in divergence form. The proof can be achieved by Hilbert space methods based on generalized or weak solutions. Existence and uniqueness of a generalized solution for the Dirichlet problem follow from the Fredholm alternative and weak maximum principle.
Resumo:
La sintesi industriale di anidride maleica (AM) è realizzata industrialmente mediante ossidazione selettiva di n-butano in aria ad opera di un catalizzatore a base di ossidi misti di vanadio e fosforo, avente formula chimica (VO)2P2O7 ed indicato con la sigla VPP (pirofosfato di vanadile). Vi è attualmente un notevole interesse per lo sviluppo di nuove vie sintetiche che utilizzino come reagenti molecole ottenute da materie prime rinnovabili; un’alternativa è costituita dall’utilizzo di 1-butanolo, un bio-alcool ottenuto mediante un processo fermentativo da biomasse; la sua disponibilità e il prezzo competitivo con quello delle materie prime tradizionali lo rendono una molecola interessante per la produzione di building blocks. Per studiare la reazione di ossidazione selettiva di 1-butanolo ad AM, sono state condotte prove di reattività su un catalizzatore industriale a base di VPP al variare di diversi parametri: configurazione del reattore, temperatura, tempo di contatto e frazione molare di ossigeno in alimentazione. Le prove hanno portato a risultati interessanti di selettività in AM, tali da confermare l’effettiva validità di 1-butanolo come reagente alternativo per questo tipo di sintesi.
Resumo:
Studio di alcuni dispositivi presenti nelle vetture di formula 1, ma anche in quelle di serie più comuni, per l’ancoraggio e per l’isolamento delle vibrazioni fra componentistiche elettriche e telaio del veicolo. Questi dispositivi, noti come antivibranti (AV), svolgono un ruolo essenziale nel cercare di preservare i dispositivi elettrici: centraline, scatole cablate e connessioni elettriche. Il diffondersi di strumentazione adeguata a costi non più proibitivi ha permesso di studiare più in dettaglio e più scientificamente il comportamento degli AV per sfruttarli al meglio. Obiettivo di questo studio è dare una caratterizzazione scientifica e rigorosa alla maggior parte degli antivibranti presenti in STR7 monoposto Toro Rosso (mondiale di F1 2012), buona parte dei quali verrà utilizzata anche nelle successive vetture. Si volevano, inoltre, sviluppare alcuni modelli che potessero simulare correttamente montaggi di centraline generiche con tutte le diverse tipologie di antivibranti, in modo tale da poter vedere, prima ancora di realizzarli, come si comportavano i sistemi in quelle condizioni e dunque poter apportare modifiche al progetto tali da ottenere la configurazione di montaggio migliore. La continua ricerca di miglioramenti prestazionali che una competizione motoristica ad altissimi livelli richiede, il costante bisogno di alleggerimenti e maggiore affidabilità spingono la ricerca e l'azienda voleva passare da una progettazione basata sulla ripetizione delle configurazioni dimostratesi affidabili nel passato ad una progettazione più tecnica, scientifica e prestazionale. Per una buona caratterizzazione delle proprietà degli antivibranti sono stati progettati specifici test da eseguire al banco vibrante con i quali, lavorando nel dominio delle frequenze, si sono sfruttate le funzioni di risposte in frequenze di ogni antivibrante per ricavare i parametri caratteristici degli stessi nelle varie configurazioni. Con strategie grafiche, numeriche e teoriche si sono ricavati, con buone precisioni, i valori dei coefficienti di smorzamento e di rigidezza che caratterizzano i componenti studiati. Per l’esecuzione di questi test sono stati utilizati tutti gli strumenti messi a disposizione da Scuderia Toro Rosso nel laboratorio per prove vibrazionali recentemente approntato. Per la parte di simulazione numerica invece sono stati sfruttati i risultati ottenuti nella caratterizzazione degli antivibranti per creare programmi in ambiente Matlab che possano simulare il comportamento di generiche centraline montate in generici modi. Risultati di questo studio saranno gli andamenti dei coefficienti di rigidezza e smorzamento dei vari antivibranti nelle diverse configurazioni; inoltre si renderanno disponibili ai progettisti istruzioni e semplici programmi per la valutazione delle scelte fatte al fine di minimizzare le vibrazioni dei dispositivi.
Resumo:
Le reti di oggetti intelligenti costituiscono una realtà che si sta affermando nel mondo quotidiano. Dispositivi capaci di comunicare tra loro, oltre che svolgere la propria funzione primaria, possono comporre una nuvola che faccia riferimento al legittimo proprietario. Un aspetto fondamentale di questo scenario riguarda la sicurezza, in particolar modo per garantire una comunicazione protetta. Il soddisfacimento di questo requisito è fondamentale anche per altri punti come l'integrità dell'informazione condivisa e l'autenticazione. Lo strumento più antico e tutt'ora adatto alla riservatezza di una comunicazione è costituito dalla crittografia. Una tecnica crittografica è schematicamente composta da un algoritmo che, a seconda di una chiave e del messaggio in ingresso, restituisce in uscita un messaggio cifrato, il crittogramma. Questo viene poi inviato e al legittimo destinatario che, essendo in possesso della chiave e dell'algoritmo, lo converte nel messaggio originale. L'obiettivo è rendere impossibile ad un utente malevolo - non dotato di chiave - la ricostruzione del messaggio. L'assunzione che l'algoritmo possa essere noto anche a terze parti concentra l'attenzione sul tema della chiave. La chiave deve essere sufficientemente lunga e casuale, ma soprattutto deve essere nota ai due utenti che intendono instaurare la comunicazione. Quest'ultimo problema, noto come distribuzione della chiave, è stato risolto con il sistema RSA a chiave pubblica. Il costo computazionale di questa tecnica, specialmente in un contesto di dispositivi non caratterizzati da grandi potenze di calcolo, suggerisce però la ricerca di strade alternative e meno onerose. Una soluzione promettente ed attualmente oggetto di studio sembra essere costituita dalle proprietà del canale wireless. Un ponte radio è caratterizzato da una funzione di trasferimento che dipende dall'ambiente in cui ci si trova e, per il teorema di reciprocità, risulta essere lo stesso per i due utenti che l'hanno instaurato. Oggetto della tesi è lo studio ed il confronto di alcune delle tecniche possibili per estrarre una chiave segreta da un mezzo condiviso, come quello del canale wireless. Si presenterà il contesto in cui verrà sviluppato l'elaborato. Si affronteranno in particolare due casi di interesse, costituiti dalla attuale tecnologia di propagazione del segnale a banda stretta (impiegata per la maggior parte delle trasmissioni senza fili) per passare a quella relativamente più recente della banda Ultra-larga (UWB). Verranno poi illustrate delle tecniche per ottenere stringhe di bit dai segnali acquisiti, e saranno proposti dei metodi per la loro correzione da eventuali discordanze. Saranno infine riportate le conclusioni sul lavoro svolto e le possibili strade future.
Resumo:
Nell’ottica di uno sviluppo ecosostenibile, la progettazione e la realizzazione di imballaggi alimentari devono necessariamente tener conto del destino del materiale al termine della sua vita utile. Negli ultimi anni, infatti, il considerevole incremento dei volumi dei rifiuti plastici e le difficoltà legate al loro smaltimento e riciclo hanno rappresentato le forze motrici per l’individuazione di soluzioni concrete ai problemi connessi alla gestione di tali scarti. Lo sviluppo di nuovi polimeri che soddisfino requisiti di degradabilità, compatibilità con l’ambiente di smaltimento e rilascio di prodotti di degradazione con un basso livello di tossicità, oltre che possedere proprietà fisico-meccaniche adatte per l’applicazione richiesta, offre una possibile soluzione a tali questioni ad oggi irrisolte. Tra i polimeri biodegradabili, il poli(butilene 1,4-cicloesandicarbossilato) (PBCE) è un materiale di grande interesse, in quanto la presenza dell’anello alifatico nell’unità monomerica conferisce al materiale un’elevata cristallinità, una notevole stabilità termica e interessanti proprietà meccaniche. Per contro, l’eccessiva rigidità e fragilità del materiale e la sua lenta cinetica di biodegradazione lo rendono poco versatile e ne limitano notevolmente la gamma di possibili applicazioni. Per tali ragioni, si è scelto di incentrare il presente lavoro sullo sviluppo di copolimeri a base di PBCE, dotati sia di migliori proprietà meccaniche che di una maggiore velocità di degradazione. Lo scopo previsto è stato raggiunto mediante sintesi di due sistemi di copolimeri a blocchi contenenti eteroatomi lungo la catena principale.
Resumo:
In questo lavoro di tesi è stato elaborato un modello analitico al fine di ottenere una stima dell’ampiezza di delaminazione a seguito di impatti a bassa velocità in laminati in composito, in particolare carbon/epoxy. Nel capitolo 2 è descritto il comportamento meccanico di tali laminati (equazioni costitutive della singola lamina, dell’intero laminato e costanti ingegneristiche dell’intero laminato per qualsiasi sistema di riferimento). Nel capitolo 3 viene descritta la filosofia di progettazione damage tolerance per tali materiali sottoposti a low-velocity impact (LVI) e richiamato il concetto di structural health monitoring. In particolare vengono descritti i tipi di difetti per un laminato in composito, vengono classificati gli impatti trasversali e si rivolge particolare attenzione agli impatti a bassa velocità. Nel paragrafo 3.4 sono invece elencate diverse tecniche di ispezione, distruttive e non, con particolare attenzione alla loro applicazione ai laminati in composito. Nel capitolo 4 è riportato lo stato dell’arte per la stima e la predizione dei danni dovuti a LVI nei laminati: vengono mostrate alcune tecniche che permettono di stimare accuratamente l’inizio del danno, la profondità dell’indentazione, la rottura delle fibre di rinforzo e la forza massima di impatto. L’estensione della delaminazione invece, è difficile da stimare a causa dei numerosi fattori che influenzano la risposta agli impatti: spesso vengono utilizzati, per tale stima, modelli numerici piuttosto dispendiosi in termini di tempo e di calcolo computazionale. Nel capitolo 5 viene quindi mostrata una prima formula analitica per il calcolo della delaminazione, risultata però inaffidabile perché tiene conto di un numero decisamente ristretto di fattori che influenzano il comportamento agli LVI. Nel capitolo 6 è mostrato un secondo metodo analitico in grado di calcolare l’ampiezza di delaminazione mediante un continuo aggiornamento della deflessione del laminato. Dal confronto con numerose prove sperimentali, sembra che il modello fornisca risultati vicini al comportamento reale. Il modello è inoltre fortemente sensibile al valore della G_IIc relativa alla resina, alle dimensioni del laminato e alle condizioni di vincolo. É invece poco sensibile alle variazioni delle costanti ingegneristiche e alla sequenza delle lamine che costituiscono il laminato. La differenza tra i risultati sperimentali e i risultati del modello analitico è influenzata da molteplici fattori, tra cui il più significativo sembra essere il valore della rigidezza flessionale, assunto costante dal modello.
Resumo:
E stata risolta l'equazione d'onda per la radiazione elettromagnetica ed è stata trovata l'espressione (in forma di integrale) per un impulso monocromatico di frequenza angolare fissata e per un impulso di durata finita, imponendo che nello spazione dei vettori d'onda (k_x,k_y) l'impulso sia rappresentato da una funzione Gaussiana nella forma exp[-w_0^2(k_x^2+k_y^2)/4], dove w_0 rappresenta il waist trasverso. Per avere un'espressione analitica dell'impulso monocromatico e dell'impulso di durata finita si sono rese necessarie rispettivamente l'approssimazione parassiale e un'approssimazione di "fattorizzazione". Sono state analizzate, sia analiticamente sia numericamente, i limiti entro i quali queste approssimazioni possono essere considerate accurate. Le soluzioni esatte e le soluzioni approssimate sono state confrontate graficamente. Nel capitolo finale è stato analizzato il moto di una particella carica che interagisce con un pacchetto d'onda unidimensionale, mettendo in luce la fondamentale differenza tra il moto di questa particella nel vuoto e il moto della stessa in un plasma carico. Infatti, in accordo con il teorema di Lawson-Woodward, nel vuoto la particella non può essere accelerata per interazione diretta con il pacchetto d'onda, mentre nel plasma, a seguito del passaggio del pacchetto, la particella può aver acquistato energia.
Resumo:
In questa tesi ci si occuperà di presentare alcuni aspetti salienti della teoria spettrale per gli operatori limitati negli spazi di Hilbert. Nel primo capitolo verranno presentate alcune nozioni fondamentali di analisi funzionale, necessarie per lo studio degli operatori. Il secondo capitolo si occupa invece di analizzare la teoria spettrale per operatori compatti. In particolare, verrà presentato il Teorema Spettrale per Operatori Normali Compatti e il Teorema dell'Alternativa di Fredholm. In seguito verrà applicata tale teoria alla risolubilità del problema di Dirichlet. Nel terzo capitolo verrà esteso quanto ottenuto per gli operatori compatti ad operatori limitati autoaggiunti e per gli operatori normali limitati, passando attraverso le famiglie spettrali.