737 resultados para Analisi di vulnerabilità sismica strutture esistenti
Resumo:
L’evoluzione dei componenti elettronici di potenza ed il conseguente sviluppo dei convertitori statici dell’energia elettrica hanno consentito di ottenere un’elevata efficienza energetica, sia nell’ambito degli azionamenti elettrici, sia nell’ambito della trasmissione e distribuzione dell’energia elettrica. L’efficienza energetica è una questione molto importante nell’attuale contesto storico, in quanto si sta facendo fronte ad una elevatissima richiesta di energia, sfruttando prevalentemente fonti di energia non rinnovabili. L’introduzione dei convertitori statici ha reso possibile un notevolissimo incremento dello sfruttamento delle fonti di energia rinnovabili: si pensi ad esempio agli inverter per impianti fotovoltaici o ai convertitori back to back per applicazioni eoliche. All’aumentare della potenza di un convertitore aumenta la sua tensione di esercizio: le limitazioni della tensione sopportabile dagli IGBT, che sono i componenti elettronici di potenza di più largo impiego nei convertitori statici, rendono necessarie modifiche strutturali per i convertitori nei casi in cui la tensione superi determinati valori. Tipicamente in media ed alta tensione si impiegano strutture multilivello. Esistono più tipi di configurazioni multilivello: nel presente lavoro è stato fatto un confronto tra le varie strutture esistenti e sono state valutate le possibilità offerte dall’architettura innovativa Modular Multilevel Converter, nota come MMC. Attualmente le strutture più diffuse sono la Diode Clamped e la Cascaded. La prima non è modulare, in quanto richiede un’apposita progettazione in relazione al numero di livelli di tensione. La seconda è modulare, ma richiede alimentazioni separate e indipendenti per ogni modulo. La struttura MMC è modulare e necessita di un’unica alimentazione per il bus DC, ma la presenza dei condensatori richiede particolare attenzione in fase di progettazione della tecnica di controllo, analogamente al caso del Diode Clamped. Un esempio di possibile utilizzo del convertitore MMC riguarda le trasmissioni HVDC, alle quali si sta dedicando un crescente interesse negli ultimi anni.
Resumo:
Questa relazione è frutto di un lavoro sperimentale svolto su diversi campioni di taralli del commercio forniti da un'azienda del settore, prodotti mediante ricette simili ed omogenei per dimensioni. Le attività di ricerca sono state focalizzare su: I) l'individuazione e la valutazione dei principali descrittori sensoriali in grado di caratterizzare la tipologia di prodotto; II) lo svolgimento di un'analisi sensoriale discriminante per verificare l'esistenza di differenze significativamente rilevabili tra taralli dello stesso tipo ma conservati per tempi differenti (0, 6, 12 mesi), al fine di fornire indicazioni utili per la definizione corretta della shelf-life del prodotto; III) la determinazione di specifici parametri fisici relazionati con l'apparenza e la texture dei taralli, per verificare la possibilità di utilizzare tali dati sia come supporto alla fase di allenamento del gruppo di assaggiatori, sia come approccio rapido per la valutazione della qualità e della freschezza di tali prodotti. Per la realizzazione degli obiettivi appena esposti, é stata applicata la tecnica QDA®. I dati delle singole sedute di analisi sono stati monitorati mediante PanelCheck. E' stato svolto un test triangolare attraverso cui definire se i taralli differenti per tempo di conservazione risultino significativamente discriminati per le caratteristiche sensoriali. Parallelamente alla QDA® e sullo stesso set di campioni, sono state applicate alcune analisi fisiche concernenti la valutazione dell’aspetto visivo e della texture del prodotto. Per la valutazione strumentale dell’apparenza dei campioni di taralli, si sono acquisite le immagini relative ai campioni oggetto di studio mediante un sistema di acquisizione e, successivamente, elaborate attraverso Image Pro - Plus v 6.2, per determinare elementi utili alla discriminazione dei campioni in esame. Per quanto concerne la determinazione della caratteristiche strutturali dei taralli è stato utilizzato il Texture Analyzer ed impiegato un test di penetrazione. E' stata infine condotta, mediante tecniche statistiche, un’analisi congiunta dei dati sensoriali e fisici.
Resumo:
Lo scopo dello studio è comprendere i fenomeni alla base della fiducia degli utenti verso l'enciclopedia online Wikipedia. Per farlo è necessario prima di tutto comprendere e modellizzare l'organizzazione della struttura dei processi socio-produttivi sottostanti alla produzione del contenuto di Wikipedia, procedendo quindi nel verificare empiricamente e descrivere le capacità di autocorrezione della stessa. Oltre a quelli utilizzati in questo studio, saranno anche descritti gli approcci e i risultati trattati in letteratura, riportando i principali studi che nel corso degli anni hanno affrontato questi argomenti, sebbene mantenendoli indipendenti. Per comprendere la struttura della community degli editor di Wikipedia, si è ipotizzata l'esistenza di un modello di tipo Core-Periphery. Per studiare il modello sono state eseguite delle analisi su dati derivanti da un campione di pagine della versione italiana di Wikipedia. I risultati ottenuti dall'analisi di queste informazioni rappresentano le basi utilizzate per la selezione delle pagine oggetto dell'iniezione degli errori, costituendo un metodo per stimare le diverse probabilità di autocorrezione per ciascuna pagina. Per quanto riguarda le capacità di resilienza di Wikipedia, i risultati sono ricavati utilizzando un approccio empirico. Questo consiste nell'inserimento di errori all'interno del campione di pagine sotto specifici vincoli metodologici per poi valutare in quanto tempo e con quali modalità questi errori vengono corretti. E' stata effettuata un'analisi specifica per la scelta delle tipologie di errore e delle variabili da considerare nell'inserimento di questi. Questa analisi ha portato alla definizione di 2 esperimenti tra loro distinti, i cui risultati portano ad interessanti conclusioni sia visti separatamente che combinati tra loro. Sulla base dei risultati di questi esperimenti è stato possibile discutere sulle capacità di autocorrezione del sistema, elemento chiave nello studio delle dinamiche della fiducia verso Wikipedia.
Resumo:
L’incidente stradale è la conseguenza di uno o più errori all'interno di un sistema complesso, in cui l'uomo rappresenta la principale causa d’incidentalità. Spesso ciò che può apparire a una prima analisi un errore dell’utente, in realtà può essere collegato a problemi di progettazione e gestione dell’infrastruttura. Per massimizzare i risultati nel campo della sicurezza stradale, occorre valutare il “sistema strada” in ogni suo elemento. Per raggiungere questi obiettivi le analisi di sicurezza giocano un ruolo fondamentale. Il Road Safety Review consente di individuare nel tracciato la presenza di situazioni di rischio, in modo tale da eliminarli o attenuarli prima che diano luogo ad incidenti. Il Ministero delle Infrastrutture e dei Trasporti ha emanato le "Linee guida per la gestione della sicurezza delle infrastrutture stradali". Secondo queste Linee Guida l'uomo detiene un ruolo centrale nel sistema. L'uomo deve adattare il suo comportamento, in funzione del veicolo condotto e delle condizioni ambientali. Diventa indispensabile integrare le analisi di sicurezza con il fattore uomo. Obiettivo della tesi è analizzare la sicurezza di un’infrastruttura viaria esistente integrando i risultati ottenuti dal Road Safety Review con metodologie innovative che tengano conto del comportamento degli utenti durante la guida. È stata realizzata una sperimentazione in sito che ha coinvolto un campione formato da 6 soggetti. Ognuno di essi ha percorso il tronco stradale, della SP26 "Valle del Lavino", in provincia di Bologna. La strada, richiede interventi di adeguamento e messa in sicurezza poiché risulta la terza tratta stradale a maggior costo sociale di tutta la rete provinciale. La sperimentazione ha previsto due fasi: la prima, in cui è stato condotto il Road Safety Review . La seconda, in cui ogni soggetto ha guidato lungo il tronco stradale, indossando il Mobile Eye-XG, un'innovativa strumentazione eye tracking in grado di tracciare l’occhio umano e i suoi movimenti.
Resumo:
La tesi introduce il problema matematico della rovina del giocatore dopo un'introduzione storica relativa allo sviluppo del gioco d'azzardo ed alla sua concezione sociale. Segue un'analisi di alcuni particolari giochi con un approfondimento sul calcolo della probabilità di vittoria e sul gioco equo. Infine sono introdotti alcuni preliminari matematici relativi alla misura, alle successioni di Bernoulli ed alle leggi dei grandi numeri, necessari per comprendere il problema.
Resumo:
L'assistenza sanitaria in Italia e nel mondo è caratterizzata da bisogni elevati in continua crescita, ad essi si contrappone l'attuale crisi delle risorse economiche determinando per il Sistema una valutazione di scelte quali la riduzione o la rimodulazione dell'offerta sanitaria pubblica. L'idea di questo lavoro, nata all'interno dell'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (IRST) IRCCS, è di approcciare questo problema in ottica di miglioramento delle performance anziché riduzione dei servizi, nella convinzione che vi siano importanti margini di perfezionamento. Per questi motivi si è valutata la necessità di sviluppare un metodo e un'applicazione software per l'identificazione dei percorsi diagnostici terapeutici assistenziali (PDTA), per la raccolta di dati dalle strutture coinvolte, per l'analisi dei costi e dei risultati, mirando ad una analisi di tipo costi - efficacia e di benchmarking in ottica di presa in carico dei bisogni di salute. La tesi descrive la fase di raccolta e analisi dei requisiti comprensiva della profilazione utenti e descrizione di alcuni aspetti dinamici salienti, la fase di progettazione concettuale (schema Entity/Relationship, glossario e volumi dei dati), la fase di progettazione logica e la prototipazione dell'interfaccia utente. Riporta inoltre una valutazione dei tempi di sviluppo realizzata tramite metodologia di calcolo dei punti per caso d'uso. L'applicazione progettata è oggetto di valutazione di fattibilità presso l'IRST, che ha utilizzato alcune delle metodologie descritte nella tesi per descrivere il percorso di patologia mammaria e presentarne i primi risultati all'interno di un progetto di ricerca in collaborazione con l'Agenzia Nazionale per i Servizi Sanitari Regionali (Agenas).
Resumo:
Estrazione e analisi di dati (like, commenti, share) relativi alle APT regionali per contesti di promozione turistica
Resumo:
Lo scopo di questa tesi è quello di presentare l'applicazione di tecniche legate alla Teoria di Taglia a un problema di analisi di immagini biomediche. Il lavoro nasce dalla collaborazione del gruppo di Matematica della Visione dell'Università di Bologna, con il progetto PERFECT del Centro di Ricerca ARCES. La tesi si pone quindi come analisi preliminare di approccio alternativo ai metodi preesistenti. I metodi sono principalmente di Topologia Algebrica Applicata, ambito emergente e rilevante nel mondo della Matematica Computazionale. Il nucleo dell'elaborazione è costituito dall'analisi di forma dei dati per mezzo di Funzioni di Taglia. Questa nozione è stata introdotta nel 1999 da Patrizio Frosini e in seguito sviluppata principalmente dallo stesso, Massimo Ferri, Claudia Landi e altri collaboratori appartenuti al Gruppo di Ricerca di Matematica della Visione dell'Università di Bologna.
Resumo:
Si ha in questa situazione particolare un progetto nel quale un’azienda di servizi, “Unicredit Business Integrated Solutions”, deve soddisfare una richiesta di un’azienda cliente, Equitalia Giustizia, per l’intestazione al Fondo Unico Giustizia di risorse finanziarie. L’ottica di analisi di questo progetto tiene conto dell’utilizzo delle risorse, del valore e delle probabilità di successo.
Resumo:
Tramite il presente lavoro di tesi si intende effettuare un’analisi specifica su sedimenti provenienti dalla Pialassa Piomboni, una Zona Umida di Interesse Comunitario dal delicato equilibrio ed in continua evoluzione, che fin dalla sua nascita ha sempre assunto un ruolo di importanza sia ecologico-naturale che socio-economica, vista la posizione che la pone a metà tra il Canale Candiano, il Porto di Ravenna, la zona industriale e il mare Adriatico. Oltre ad arricchire il database di dati, l’obiettivo principale dello studio è ottenere una nuova informazione per la valutazione dello stato di qualità dei sedimenti con un’indagine ancora più specifica: si analizza la distribuzione che i metalli pesanti assumono in relazione alle diverse frazioni e caratteristiche del materiale presente tramite estrazioni sequenziali, effettuate secondo la procedura ufficiale per l’analisi di questi tipi di suoli, recentemente approvata e standardizzata a livello europeo dalla BCR (European Community Bureau of Reference) e migliorata da esperimenti interlaboratorio (Rauret et al., 1999). Attraverso attacchi con reagenti sempre più forti, si valuta a quale frazione del sedimento (scambiabile, riducibile o ossidabile) i metalli risultino maggiormente associati, valutandone mobilità e disponibilità in relazione a cambiamenti di condizioni fisiche e chimiche in cui si trova il materiale, come il variare di pH e degli equilibri ossido-riduttivi. E’ stato inoltre elaborato un inquadramento dal punto di vista geochimico, considerando i livelli di concentrazione di fondo degli elementi già naturalmente presenti in zona. Le concentrazioni totali sono infine stati confrontati con il Manuale ICRAM (2007), che fornisce linee guida per la valutazione della qualità dei sedimenti e la loro movimentazione, per poterne ipotizzare l’eventuale destino, scelta spesso problematica nella gestione di sedimenti in ambito portuale. In sintesi, questo lavoro si inserisce all’interno di un ampio progetto di gestione, approfondendo la letteratura scientifica presente sui criteri di analisi di qualità dei sedimenti e sulle problematiche di diffusione, trasporto e destino finale dei contaminanti nell’ambiente, verificando l’applicazione della procedura analitica di estrazione sequenziale, metodologicamente complessa e soggetta a migliorie e modifiche, riconsiderata in tempi recenti per la sua efficacia e per i vantaggi che comporta grazie all’acquisizione di dati ad alto contenuto di informazione.
Resumo:
La crescente espansione del traffico aereo degli ultimi anni obbliga i progettisti delle infrastrutture aeroportuali ad analizzare nel dettaglio i vari processi presenti negli aeroporti. Tali processi possono essere relativi al terminal, e quindi legati ai passeggeri, e relativi alle operazioni di volo, e pertanto legati agli aeromobili. Una delle aree più critiche dell’infrastruttura aeroportuale è il Terminal, in quanto è l’edificio che permette il trasferimento dei passeggeri dal sistema di trasporto terrestre a quello aeronautico e viceversa. All’interno del Terminal si hanno diversi processi, intesi come procedure, azioni o misure, che il passeggero è tenuto a sostenere prima, durante e dopo la partenza. L’aspetto più critico, per ciò che concerne i rischi di congestione dovuti alla molteplicità di processi, è il viaggio del passeggero in partenza. Il passaggio tra processi successivi deve essere visto con l’obiettivo di rendere il percorso del passeggero il più facile e semplice possibile. Nel presente elaborato si vuole focalizzare l’attenzione sui processi di gestione dei passeggeri presenti nei terminal aeroportuali valutandone le rispettive criticità. Per una buona analisi di questi processi bisognerebbe valutare il sistema reale. Per far fronte a questa necessità si fa uso della simulazione del sistema reale attraverso software specifici. La simulazione è il processo di progettazione e creazione di un modello computerizzato di un sistema reale. In questo lavoro di tesi, si vogliono, quindi, riportare le peculiarità dei processi che caratterizzano il viaggio dei passeggeri in partenza all’interno dei terminal aeroportuali, e valutarne le criticità attraverso l’applicazione ad un caso reale mediante l’utilizzo di uno dei maggiori software di simulazione in commercio, ovvero Arena Simulation Software della casa americana Rockwell. Pertanto nei primi capitoli vengono descritte le caratteristiche dei processi presenti in un terminal aeroportuale e le proprietà della simulazione. Mentre nei successivi capitoli si è riportato la simulazione di un caso reale effettuata con il software Arena.
Resumo:
Il presente studio ha analizzato e seguito il monitoraggio ambientale relativo al progetto di adeguamento con caratteristiche autostradali della SP46 Rho-Monza. Più precisamente il progetto dii riqualificazione prevede la realizzazione di nuove infrastrutture, ma anche l’ammodernamento di quelle già esistenti. Più precisamente è stata quindi prevista l’analisi degli interventi eseguiti e delle tecnologie utilizzate per il monitoraggio ambientale presso i comuni di Milano e Paderno Dugnano: realizzazione di perforazioni a distruzione di nucleo, la messa in opera di piezometri a tubo aperto nei fori di sondaggio realizzati, l’esecuzione di rilevazioni chimico-fisiche sulla falda intercettata dai piezometri realizzati. Tramite questo studio è stato così possibile ricostruire il livello freatimetrico della falda direttamente interessata dal progetto di riqualificazione della SP46 ed intercettata dai piezometri. In secondo luogo oltre alla ricostruzione della soggiacenza della falda, è stato valutato l’impatto antropico sulla qualità delle acque sotterranee della falda stessa, grazie alla determinazione di parametri chimico-fisici e ad analisi di laboratorio su campioni di acqua prelevati.
Resumo:
Il lavoro di questa tesi ha previsto l'acquisizione e l'elaborazione di dati geofisici al fine di determinare la risposta sismica di tre siti della Rete Accelerometrica Nazionale (RAN), collocandosi all'interno del progetto sismologico S2-2014 Constraining Observations into Seismic Hazard gestito dal Dipartimento di Protezione Civile Nazionale e dall’Istituto Nazionale di Geofisica e di Vulcanologia. Tale necessità nasce dal fatto che il più delle volte le informazioni per la corretta caratterizzazione geofisica dei siti ospitanti le stazioni accelerometriche risultano essere insufficienti, rendendo così i dati acquisiti non idonei per l'utilizzo in sede di calcolo delle leggi di attenuazione dalle quali successivamente vengono derivate le mappe di pericolosità sismica a livello nazionale e locale. L'obbiettivo di questo lavoro di tesi è stato quello di determinare l'eventuale presenza di effetti di sito o effetti di interazione suolo-struttura, per tre stazioni ubicate in Friuli-Venezia Giulia (codici stazioni MAI, TLM1 e BRC), capaci di amplificare il moto del terreno nella parte di suolo compresa fra il bedrock sismico (inteso come strato che non amplifica) e il piano campagna. Le principali tecniche utilizzate sono le seguenti: HVSR ossia rapporto spettrale della componente orizzontale su quella verticale da misure di rumore ambientale acquisite e EHV ovvero rapporto spettrale della componente orizzontale su verticale da registrazione di terremoti scaricate dal database accelerometrico italiano ITACA. I risultati delle due tecniche sono stati poi confrontati al fine di verificare un'eventuale congruenza, portando alle seguenti conclusioni. La caratterizzazione della stazione TLM1 ha portato alla importante conclusione che il sito non è idoneo per l’acquisizione di dati accelerometrici da utilizzare per il calcolo di leggi predittive o di attenuazione. La stazione accelerometrica è ospitata all’interno di un box in lamiera su una collina nel comune di Verzegnis (UD). Il problema principale che riguarda questo sito è la vicinanza della diga Ambiesta e del relativo invaso. La stazione di BRC è collocata all’interno di una cabina di trasformazione dell’ENEL sul lato destro del torrente Cellina, al suo ingresso nel lago di Barcis (PN). Le condizioni topografiche della zona, molto impervie, non consentono la corretta acquisizione dei dati. Un ulteriore fattore di disturbo è dato dall’interazione suolo-struttura, causata dalla cabina ENEL in cui è alloggiata la strumentazione. La caratterizzazione della stazione MAI collocata all'interno di una cabina ENEL nel centro del comune di Majano (UD) ha portato alla conclusione che questa è l'unica delle tre stazioni considerate capace di acquisire dati utilizzabili per il processo di validazione per le stime di pericolosità sismica. Questo perché le condizioni topografiche dell’area, pianura con stratificazione 1D, hanno permesso di sfruttare a pieno le potenzialità delle metodologie utilizzate, consentendo anche la ricostruzione di profili di velocità delle onde di taglio S con i quali è stata assegnata la categoria C del suolo previsto dall'approccio semplificato presente nelle NTC08.
Resumo:
Questa tesi affronta la tematica della trustworthiness dal punto di vista dell’utente, a partire dalla sua identità virtuale fino a considerare l’analisi dei parametri che un sito Web dovrebbe adottare perchè sia ritenuto affidabile dagli utilizzatori. Si individueranno quindi le criticità che rendono ancora la trustworthiness una variabile poco considerata nella progettazione di siti Web e gli eventuali accorgimenti e punti di forza che caratterizzano un ambiente di lavoro. La tesi presenta diversi casi esemplificativi di utilizzo, ovvero gli ambienti di commercio elettronico, gli ambienti che condizionano l’acquisto di un utente e i sistemi di knowledge sharing; tutte le analisi di affidabilità sono applicate a siti web che adottano modelli di approvvigionamento dati da parte degli utenti stessi, votazioni e giudizi, recensioni su prodotti e servizi, crowdsourcing di informazioni e di esperienze personali e collettive, basate su progetti di indagine commerciale, analisi e opinione di prodotti o servizi o informazioni condivise per lo sviluppo sociale. La tematica viene analizzata da questi tre punti di vista, ciascuno sotto l’ottica identitaria, di reputazione e di affidabilità. La letteratura, come esaminato in questa tesi, propone alcuni modelli che individuano criteri di valutazione dell’affidabilità dei siti web, su algoritmi già esistenti quindi su siti Web che possiedono sistemi di filtraggio del contenuto o sistemi di valutazione della reputazione o meccanismi di raccomandazione per individuare le intenzioni dell’utente; in altri casi vengono implementati modelli sperimentali e teorie basate su dataset esistenti, per ricercare soluzioni tangibili all’autenticazione di affidabilità di un sistema, compensando la carenza di sistemi di giudizio di trustworthiness su siti Web reali. Vengono proposti alcuni casi d’uso, appartenenti alle categorie prese in oggetto, per esaminare nel dettaglio, le caratteristiche di trustworthiness fornite da ognuno di essi, nel loro campo di applicazione. L’obiettivo è tracciare una mappatura dei principali criteri con cui viene valutata trustworthiness dei dati in qualsiasi ambito d’applicazione della rete, ponendo alcuni criteri fondamentali ed avere così una visione approfondita della problematica.
Resumo:
L’uso dei materiali compositi è andato aumentando negli ultimi decenni per la loro elevata rigidezza, la resistenza specifica e il possibile risparmio, notevole in termini di peso dell’intera struttura. Tali materiali introducono però nuove problematiche riguardanti le modalità di danneggiamento e il comportamento a fatica. Mentre questi fenomeni sono relativamente ben compresi nei materiali metallici, per una struttura in composito non esistono ancora modelli in grado di predire con sufficiente affidabilità l’evoluzione del danneggiamento. Negli ultimi anni la ricerca si è focalizzata sullo sviluppo di sistemi in grado di rilevare la presenza e l’evoluzione del danno, definiti Structural Health Monitoring Systems, ovvero sistemi di monitoraggio strutturale. Il danneggiamento strutturale può così essere individuato e identificato per mezzo di sensori distribuiti integrati nella struttura stessa, aventi la possibilità di trasmettere queste informazioni a un sistema di analisi esterno permettendo di valutare lo stato di degrado della struttura in tempo reale. In questo contesto si inseriscono le attività di ricerca sulle strutture intelligenti che, inglobando al loro interno opportune tipologie di sensori e attuatori, sono in grado di monitorare l’ambiente fisico operativo, raccoglierne e interpretarne le informazioni per poi rispondere ai cambiamenti della struttura in modo appropriato attraverso gli attuatori. L’impiego di sensori e attuatori inglobati nelle strutture offre molteplici vantaggi rispetto ai sistemi di trasduzione e attuazione convenzionali. L’attività di ricerca condotta in questa tesi è rivolta all’indagine di tecniche di SHM per mezzo di sensori a fibra ottica. Essi presentano molteplici peculiarità che li rendono i candidati ideali per queste applicazioni. Esistono diversi tipi di sensori che utilizzano le fibre ottiche. Nel presente lavoro si sono utilizzati sensori di deformazione basati sui reticoli di Bragg (FBG) chirped. Questi sensori sono costituiti da un reticolo inscritto all’interno della fibra, che ha l’effetto di riflettere solo alcune lunghezze d’onda della luce incidente. Se le proprietà geometriche del reticolo cambiano per effetto di una deformazione, cambia anche la forma dello spettro riflesso. Inoltre, con il tipo di sensore usato, è possibile correlare lo spettro con la posizione di eventuali danneggiamenti interni al materiale. Gli obbiettivi di questa ricerca sono di verificare gli effetti della presenza di una fibra ottica sulle caratteristiche meccaniche di un laminato e di trovare un legame tra la risposta in frequenza del sensore FBG e lo stato tensionale e il grado di danneggiamento di un componente in composito.