628 resultados para relazione funzione dominio codominio spazi Lp spazi di Sobolev analisi funzionale


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’innovazione non è solamente l’applicazione e l’uso di nuovi device tecnologici ma, anche, un nuovo approccio capace di gestire le sfide sociali delle nostre città. In esse gli spazi pubblici sono i luoghi che per primi possono essere portatori di nuovi valori, nuovi modi di vivere e di agire sulle città. Sono spazi di sperimentazione dove possiamo imparare ad interagire con (e rispettando) i diversi attori. L’intervento architettonico in questi ambiti diventa il mezzo per favorire l’evoluzione positiva dell’attuale stato fisico e sociale. La progettazione si sta, però, evolvendo trasformandosi sempre più in una strategia in grado di apprendere dagli eventi e dalle contingenze. Gli interventi proposti nella mia tesi di laurea, seguendo questo approccio, vogliono portare una riqualificazione degli spazi urbani pubblici di Zingonia, una realtà estremamente complessa e stimolante. Zingonia è nata come New town nel 1964 ed oggi appare come un quartiere metropolitano degradato e pericoloso senza Comune, una periferia senza centro, uno dei più sorprendenti e complessi laboratori d’immigrazione in Italia. L’insieme di piccoli interventi proposti sono azioni che vogliono incrementare la percezione di un luogo “sicuro”, tentando di abbassare alcune barriere mentali e fisiche. I risultati concreti di questi interventi sono altrettanto importanti quanto i risultati sociali e psicologici percepiti dai partecipanti. La strategia adottata prevede il coinvolgimento degli user in tutto il processo, promuovendo interventi di autocostruzione “DIY-Do it yourself”. Questo approccio è rilevante perchè l’azione di creazione genera un legame molto importante con lo spazio e attiva il dialogo con gli altri partecipanti che è alla base dello sviluppo di una comunità. Le persone vengono così coinvolte in un educazione pratica dell’estetica del paesaggio diventando consapevoli del proprio potere nel cambiare ciò che le circonda.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La modellazione di una pompa gerotor può essere svolta mediante l'utilizzo di modelli matematici di tipo numerico. Questo tipo di soluzione prevedere la realizzazione di un dominio fluido discretizzato. In questo lavoro l'analisi è stata effettuata mediante il software STAR-CCM+. Sono state applicate due tecniche per la discretizzazione del dominio, l'Overset ed il Morphing, applicabili in problemi di interazione tra fluido e struttura in movimento. Analizzate le due tecniche, la seconda è stata applicata nello studio del comportamento di una pompa gerotor. I risultati ottenuti hanno portato alla definizione di un secondo modello ottimizzato mediante la variazione della luce di aspirazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Una tra le maggiori problematiche ambientali è la presenza di numerosi composti chimici nelle riserve e nei corsi d’acqua, provocando un impatto molto dannoso per l'ambiente e l'uomo, con quantità in costante aumento a causa della crescente industrializzazione. Un forte contributo deriva dai coloranti, molto impiegati dall’industria; in letteratura sono riportate numerose metodologie di rimozione come: scambio ionico, filtrazione su membrana, trattamento elettrochimico o termico. Tra tutte, lo scambio ionico risulta il più efficiente ed economico. Negli studi effettuati presso ISTEC-CNR (Faenza RA) si è valutata la capacità adsorbente di sfere geopolimeriche ottenute tramite diverse tecnologie di processo, usando blu di metilene come colorante modello di tipo cationico. L’utilizzo dell’adsorbente in forma di sfere con diametro di 2–3mm ne favorisce l’applicabilità su scala industriale. Per estenderne il campo di applicazione dei geopolimeri (adsorbono cationi) è necessario produrre compositi con l’aggiunta di cariche in grado di adsorbire altre specie chimiche. L’idrotalcite viene usata come adsorbente per specie anioniche, grazie alla sua elevata capacità di scambio. Scopo del presente lavoro è stato ampliare il campo di applicazione di adsorbenti geopolimero-idrotalcite, approfondendo la letteratura relativa ai processi di adsorbimento nei materiali di partenza e nei loro compositi. I compositi geopolimero-idrotalcite sono stati prodotti in forma sferica sfruttando la gelazione ionotropica dell’alginato di sodio, fornendo un composito ibrido organico (alginato)/ inorganico (geopolimero). Dopo la formatura e la caratterizzazione dei compositi, è stato studiato l’adsorbimento del Blu di metilene (cationico), dell’Acid Blue 9 (zwitterionico) e dell’Acid Black 194 (anionico), per valutare la variazione della capacità di adsorbimento in seguito all’aggiunta di idrotalcite e la funzione adsorbente del composito nei confronti di coloranti cationici e anionici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le recenti analisi dei dati raccolti ad ALICE dimostrano che la nostra comprensione dei fenomeni di adronizzazione dei sapori pesanti è ancora incompleta, perché le misure effettuate su collisioni pp, p-Pb e Pb-Pb non sono riproducibili da modelli teorici basati su altre tipologie di collisione come e+e−. In particolare, i risultati sembrano indicare che il principio di universalità, che assume che le funzioni di frammentazione di quark e gluoni siano indipendenti dal tipo di sistema interagente, non sia valido. Per questo motivo sono stati sviluppati nuovi modelli teorici e fenomenologici, capaci di riprodurre in modo più o meno accurato i dati sperimentali. Questi modelli differiscono tra di loro soprattutto a bassi valori di impulso trasverso pT . L’analisi dati a basso pT si rivela dunque di fondamentale importanza, in quanto permette di discriminare, tra i vari modelli, quelli che sono realmente in grado di riprodurre i dati sperimentali e quelli che non lo sono. Inoltre può fornire una conferma sperimentale dei fenomeni fisici su cui tale modello si basa. In questa tesi è stato estratto il numero di barioni Λ+c (yield ) prodotto in collisioni pp a √s = 13 TeV , nel range di impulso trasverso 0 < pT (Λ+c ) < 1 GeV/c. É stato fatto uso di una tecnica di machine learning che sfrutta un algoritmo di tipo Boosted Decision Trees (BDT) implementato dal pacchetto TMVA, al fine di identificare ed eliminare una grossa parte del fondo statistico e semplificare notevolmente l’analisi vera e propria. Il grado di attendibilità della misura è stata verificata eseguendo l’estrazione dello yield con due approcci diversi: il primo, modellando il fondo combinatoriale con una funzione analitica; successivamente con la creazione di un template statistico creato ad hoc con la tecnica delle track rotations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'argomento della Tesi è lo studio delle serie trigonometriche e di Fourier: in particolare, il problema dello sviluppo in serie trigonometrica di una data funzione 2π-periodica e l'unicità di tale sviluppo, che si deduce dal Teorema di Lebesgue e Du Bois-Reymond. Nel Capitolo 1 sono stati richiamati alcune definizioni e risultati di base della teoria delle serie trigonometriche e di Fourier. Il Capitolo 2 è dedicato alla teoria della derivata seconda di Schwarz (una generalizzazione della derivata seconda classica) e delle cosidette funzioni 1/2-convesse: il culmine di questo capitolo è rappresentato dal Teorema di De la Vallée-Poussin, che viene applicato crucialmente nella prova del teorema centrale della tesi. Nel Capitolo 3 si torna alla teoria delle serie trigonometriche, applicando i risultati principali della teoria della derivata seconda di Schwarz e delle funzioni 1/2-convesse, visti nel capitolo precedente, per definire il concetto di funzione di Riemann e di somma nel senso di Riemann di una serie trigonometrica e vederne le principali proprietà. Conclude il Capitolo 3 la prova del Teorema di Lebesgue e Du Bois-Reymond, in cui vengono usate tutte le nozioni e i risultati del terzo capitolo e il Teorema di De la Vallée-Poussin. Infine, il Capitolo 4 è dedicato alle applicazione del Teorema di Lebesgue e Du Bois-Reymond. In una prima sezione del Capitolo 4 vi sono alcuni casi particolari del Teorema di Lebesgue e Du Bois-Reymond e in particolare viene dimostrata l'unicità dello sviluppo in serie trigonometrica per una funzione 2π-periodica e a valori finiti. Conclude la Tesi un'altra applicazione del Teorema di Lebesgue e Du Bois-Reymond: la prova dell'esistenza di funzioni continue e 2π-periodiche che non sono la somma puntuale di nessuna serie trigonometrica, con un notevole esempio di Lebesgue.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gli obiettivi di questi tesi sono lo studio comparativo di alcuni DBMS non relazionali e il confronto di diverse soluzioni di modellazione logica e fisica per database non relazionali. Utilizzando come sistemi di gestione due DBMS Document-based non relazionali, MongoDB e CouchDB, ed un DBMS relazionale, Oracle, sarà effettuata un’analisi di diverse soluzione di modellazione logica dei dati in database documentali e uno studio mirato alla scelta degli attributi sui quali costruire indici. In primo luogo verrà definito un semplice caso di studio su cui effettuare i confronto, basato su due entità in relazione 1:N, sulle quali sarà costruito un opportuno carico di lavoro. Idatabase non relazionali sono schema-less, senza schema fisso, ed esiste una libertà maggiore di modellazione. In questo lavoro di tesi i dati verranno modellati secondo le tecniche del Referencing ed Embedding che consistono rispettivamente nell’inserimento di una chiave (riferimento) oppure di un intero sotto-documento (embedding) all’interno di un documento per poter esprimere il concetto di relazione tra diverse entità. Per studiare l’opportunità di indicizzare un attributo, ciascuna entità sarà poi composta da due triplette uguali di attributi definiti con differenti livelli di selettività, con la differenza che su ciascun attributo della seconda sarà costruito un indice. Il carico di lavoro sarà costituito da query definite in modo da poter testare le diverse modellazioni includendo anche predicati di join che non sono solitamente contemplati in modelli documentali. Per ogni tipo di database verranno eseguite le query e registrati i tempi, in modo da poter confrontare le performance dei diversi DBMS sulla base delle operazioni CRUD.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’Intelligenza Artificiale (IA), sin dalla sua introduzione, si è occupata dei giochi, ponendo l’attenzione a quelli detti a informazione perfetta e a somma zero e sequenziali (Tris, Scacchi e Forza4). Dalla Teoria dei Giochi è derivato il modello Minimax, che sfrutta l'albero di gioco per effettuare una ricerca in profondità allo scopo di minimizzare la massima perdita possibile per individuare la mossa migliore da giocare. Tuttavia, il limite di tale algoritmo risiede nel tempo necessario al calcolo (per alberi profondi e di grandi dimensioni) che, in alcuni casi, può essere considerevole. Per mitigare tale problema, è stato introdotta la proposta Alpha-Beta, che attua delle potature sull’albero di gioco grazie l’introduzione di due nuove variabili dette, appunto, alpha e beta. Tale approccio è stato ulteriormente migliorato ricorrendo all’utilizzo del concetto di funzione euristica e introducendo un limite di profondità al quale fermare la ricorsione del modello Alpha-Beta. Tale limite, tuttavia, determina il problema dell’effetto orizzonte, legato al fatto che fermarsi a una profondità intermedia dell’albero può portare l’algoritmo a non vedere delle alcune mosse migliori che possono situarsi nel sotto albero del nodo a cui si ferma la ricerca, appunto l’orizzonte. Ulteriori accorgimenti, come l'algoritmo ad approfondimento iterativo (Iterative Deepening) e il salvataggio degli stati di gioco in una tabella hash, possono ridurre in modo significativo il tempo di calcolo. Partendo da questi studi, sono stati sviluppati degli agenti software per ConnectX, un gioco sviluppato in Java a somma zero e a informazione perfetta come Forza4. Le implementazioni sono state testate su 39 diverse configurazioni di gioco, dimostrando che l'agente PlayerSoft risulta il più ottimale e che l'implementazione della funzione euristica rappresenta un buon compromesso tra complessità di calcolo e risultato atteso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’anisotropia magnetica di film sottili ferromagnetici è un parametro fondamentale nel campo della spintronica. Recenti lavori hanno dimostrato che la formazione di un’interfaccia tra film sottili ferromagnetici e materiali organici è in grado di modificare, l’anisotropia magnetica del costituente inorganico. Questa specifica interfaccia è stata definita spinterface ed è di grande interesse in un’ottica di ingegnerizzazione delle proprietà magnetiche di dispositivi spintronici. Pertanto, in questo lavoro di tesi ho analizzato l’anisotropia magnetica di un film policristallino di Cobalto ricoperto da una molecola organica largamente utilizzata in dispositivi spintronici e optoelettronici, la Gallio-chinolina (Gaq3), con l’obiettivo di verificare il ruolo della molecola nella definizione delle proprietà magnetiche dello strato di Cobalto. Per valutare l’impatto della formazione di spinterface, ho confrontato i risultati sperimentali con quelli ottenuti per un bistrato di riferimento Cobalto/Alluminio (Co/Al). Per comprendere i risultati sperimentali introdurrò nel primo capitolo i concetti fondamentali del magnetismo di film sottili, in particolare i vari contributi di anisotropia magnetica, il concetto di dominio magnetico e il modello di Stoner Wohlfarth. Il secondo capitolo verrà dedicato alla descrizione del concetto di spinterface e come questa interfaccia possa modificare le proprietà magnetiche dei film sottili. Nel terzo capitolo verranno descritte le tecniche di deposizione in Ultra Alto Vuoto con cui sono stati realizzati i bistrati Co/Gaq3 e Co/Al mentre nel quarto capitolo descriver`o il funzionamento del magnetometro MOKE, lo strumento con cui ho studiato l’anisotropia magnetica dei campioni prodotti. I dati sperimentali e la loro discussione saranno presentati nel quinto capitolo dove ho verificato la presenza di effetti di spinterface attraverso l’osservazione di un aumento della coercitività del campione Co/Gaq3.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I salumi rappresentano una grande tradizione italiana, lo dimostra il fatto che l'industria suinicola nazionale è principalmente orientata all’allevamento di suino “pesante”, indirizzato proprio all'industria salumiera. L’industria salumiera moderna si trova a dover fare i conti con esigenze di mercato che possono sembrare contrastanti: da un lato si richiedono prodotti tradizionali e locali, dall’altro l’attenzione del consumatore si sta spostando verso ricette innovative, ingredienti naturali, di nicchia, salubri, etici, tracciati e a basso impatto ambientale. Alla luce di ciò, emerge la necessità di un maggiore livello di innovazione al fine di creare nuovi segmenti d’offerta in risposta ai diversi fabbisogni dei consumatori. Il presente lavoro si è posto come obiettivo quello di esaminare le strategie di differenziazione dei salumi fermentati adottate dal Salumificio DelVecchio di Cesena, discutendo le scelte aziendali in relazione alla letteratura scientifica. L’azienda, partendo da una linea di base, la Linea Tradizione, che copre tutti i principali salumi presenti sul territorio italiano, è riuscita a differenziare il proprio portafoglio intervenendo a livello di materie prime e di ricette. Sono state così realizzate la Linea Mora Romagnola, i cui salumi vengono prodotti utilizzando la carne dell’omonima razza; la Linea Bio, con 12 prodotti certificati presso l’ente CCPB - tale linea è stata ulteriormente differenziata con la proposta di 6 Salamini Boscone Aromatizzati; il Salamino Boscone Bio Fonte di Omega 3, in cui la fonte di omega-3 è data dall’aggiunta di semi di lino biologici; e la linea di salumi pre-affettati take-away pronti all’uso. Sulla base di questa analisi e della bibliografia riportata, il portafoglio del Salumificio DelVecchio, pur essendo un’azienda con un profilo soprattutto locale, risulta spiccatamente differenziato al fine di soddisfare le richieste di un’ampia gamma di consumatori.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Normalmente la meccanica quantistica non relativistica è ricavata a partire dal fatto che una particella al tempo t non può essere descritta da una posizione $x$ definita, ma piuttosto è descritta da una funzione, chiamata funzione d'onda, per cui vale l'equazione differenziale di Schr\"odinger, e il cui modulo quadro in $x$ viene interpretato come la probabilità di rilevare la particella in tale posizione. Quindi grazie all'equazione di Schr\"odinger si studia la dinamica della funzione d'onda, la sua evoluzione temporale. Seguendo quest'approccio bisogna quindi abbandonare il concetto classico di traiettoria di una particella, piuttosto quello che si studia è la "traiettoria" della funzione d'onda nei vari casi di campi di forze che agiscono sulla particella. In questa tesi si è invece scelto di studiare un approccio diverso, ma anch'esso efficace nel descrivere i fenomeni della meccanica quantistica non relativistica, formulato per la prima volta negli anni '50 del secolo scorso dal dott. Richard P. Feynman. Tale approccio consiste nel considerare una particella rilevata in posizione $x_a$ nell'istante $t_a$, e studiarne la probabilità che questa ha, nelle varie configurazioni dei campi di forze in azione, di giungere alla posizione $x_b$ ad un successivo istante $t_b$. Per farlo si associa ad ogni percorso che congiunge questi due punti spazio-temporali $a$ e $b$ una quantità chiamata ampiezza di probabilità del percorso, e si sviluppa una tecnica che permette di sommare le ampiezze relative a tutti gli infiniti cammini possibili che portano da $a$ a $b$, ovvero si integra su tutte le traiettorie $x(t)$, questo tipo di integrale viene chiamato integrale di cammino o più comunemente path integral. Il modulo quadro di tale quantità darà la probabilità che la particella rilevata in $a$ verrà poi rilevata in $b$.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni la competitività nei mercati è notevolmente cresciuta, la complessità dei prodotti industriali è considerevolmente aumentata e quest’ultimi devono ora essere accuratamente ottimizzati sotto ogni aspetto. I prodotti, oltre ad avere dei cicli di vita più brevi, sono soggetti a un’alta personalizzazione e a una domanda variabile. Per rimanere competitive, le aziende manifatturiere devono possedere nuovi tipi di sistemi di produzione che siano convenienti e molto reattivi a tutti questi cambiamenti del mercato, quali i Sistemi di produzione riconfigurabili (Reconfigurable Manufacturing System - RMS). La particolarità di tali sistemi risiede nella capacità di cambiare rapidamente le loro strutture hardware e software, aspetto che li renda idonei a soddisfare la produzione moderna. Oltre agli aspetti produttivi, l’attenzione odierna è incentrata anche sulle tematiche ambientali legate al risparmio energetico durante i processi produttivi, alla riduzione delle quantità di CO2 emesse e alla sostenibilità ambientale. L’obiettivo di questa tesi è quello di proporre un modello di ottimizzazione multi-obiettivo che tenga conto sia della minimizzazione del tempo complessivo necessario alla movimentazione dei prodotti e alla riconfigurazione delle macchine, e sia della minimizzazione del consumo energetico. Tale modello è stato applicato ad un caso studio realistico che ha permesso di individuare un trade-off tecnico-ambientale individuando la frontiera di Pareto con punto di ottimo (134.6 min; 9346.3 kWh) che si discosta del 57% dal valore trovato ottimizzando la funzione tempo, e dello 0.76% dal valore ottenuto ottimizzando la funzione energia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’elaborato in questione tratta la creazione, lo sviluppo e l’utilizzo di un modello di simulazione volto a simulare il funzionamento futuro di un reparto di confezionamento di vegetali surgelati, ad oggi ancora in fase di costruzione. L’obiettivo di questo modello è quello di individuare ed analizzare a priori le possibili criticità e i possibili colli di bottiglia che potrebbero verificarsi in seguito alla messa in funzione del nuovo impianto. Il modello di simulazione sarà quindi uno strumento di supporto alle decisioni che permetterà, all’azienda Orogel, di indirizzare al meglio i propri investimenti e di risparmiare tempo e costi in fase di avvio dell’impianto. Il modello, creato per mezzo del software Plant Simulation, è stato dapprima validato simulando ordini di produzione realmente realizzati dall’azienda in passato. Successivamente, a seguito di un riscontro positivo sul funzionamento del modello, si è passati al suo utilizzo. Sono state, quindi, eseguite simulazioni riferite sia al funzionamento nominale dell’impianto sia a possibili scenari alternativi come, ad esempio, un aumento delle battute della linea. È seguita una fase di analisi dei risultati nei diversi scenari. Quello che si è riscontrato è che, durante il funzionamento nominale, non vi sono particolari criticità mentre, in determinati scenari alternativi, sono stati individuati alcuni colli di bottiglia. Sono state, dunque, suggerite possibili soluzioni per fronteggiare tali problematiche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I metodi utilizzati per la stima delle portate fluviali in bacini idrografici non strumentati fanno uso di tecniche di regionalizzazione con l’obiettivo di stimare i parametri, attraverso dei bacini di riferimento, da implementare nei modelli idrologici. Risulta, quindi, di fondamentale importanza la selezione dei bacini idrografici donatori. La scelta dei bacini di riferimento avviene tramite delle misure di somiglianza che tengono conto di caratteristiche del territorio. Il limite principale di tali approcci è la mancata considerazione della struttura della rete idrografica e del loro eventuale annidamento. Si definiscono bacini idrografici annidati due o più bacini i cui le stazioni idrometriche sono posizionate lungo la stessa ascissa fluviale oppure presentano un'area comune drenata da entrambi i bacini. Skøien et al. (2006) afferma che i bacini a valle e a monte del bacino preso in esame dovrebbero essere trattati differentemente. Il presente lavoro intende contribuire a superare detto limite. È stata stabilita, un’equazione empirica a due parametri che attraverso la distanza interbacino d e il grado di annidamento NI, definisce la differenza di portata idrica ∆Q in una coppia di bacini annidati. I valori dei parametri α e λ sono stati definiti mediante calibrazione con set di dati relativi a portate massime annuali di medie giornaliere e massimi annuali istantanei. Sono stati analizzati i corsi d’acqua in Italia, Austria e Polonia mentre a scala di bacino il Fiume Po, il Fiume Danubio, il Fiume Reno e il Fiume Oder. Attraverso la massimizzazione di una funzione obiettivo di tipo quadratico sono state verificate le prestazioni del metodo proposto. La differenza di portate ∆Q ricavata è possibile definirla come una misura di somiglianza la quale potrebbe, attraverso caratteristiche geospaziali facilmente reperibili, definire i bacini di riferimento da utilizzare nei metodi di regionalizzazione dei deflussi fluviali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo elaborato si illustra una delle principali proprietà godute dalle funzioni armoniche: la disuguaglianza di Harnack, dal nome del matematico che la dimostrò nel 1887. Nella sua formulazione più semplice, essa afferma che se una funzione armonica è non negativa, allora l'estremo superiore di tale funzione su una palla euclidea è controllato dall'alto dall'estremo inferiore della funzione sulla stessa palla, a meno di una costante moltiplicativa dipendente solo dalla dimensione. Una simile disuguaglianza è soddisfatta anche da soluzioni di equazioni alle derivate parziali più generali dell'equazione di Laplace. Ad esempio, J. Moser nel 1961 dimostra che le soluzioni deboli di equazioni differenziali ellittiche lineari soddisfano una disuguaglianza di tipo Harnack. Tale risultato è argomento dell'ultimo capitolo di questo elaborato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi tratta delle proprietà fondamentali delle funzioni armoniche. Nel primo Capitolo utilizziamo il teorema della divergenza per ottenere importanti identità integrali quali la formula di rappresentazione di Green e la formula dell'integrale di Poisson; tali identità ci permettono di mostrare nel secondo Capitolo che per le funzioni armoniche valgono le formule di media e, in particolare, queste rappresentano una proprietà caratterizzante per tali funzioni. Le formule di media rappresentano un ottimo punto di partenza per lo studio delle proprietà delle funzioni armoniche che osserviamo nel terzo Capitolo; da esse è possibile ottenere il principio del massimo e del minimo forte e la disuguaglianza di Harnack. Da queste due è possibile ottenere alcune importanti proprietà sulla convergenza di successioni di funzioni armoniche; in particolare osserviamo che una successione di funzioni armoniche convergente converge ad una funzione armonica.