1000 resultados para base di Bernstein spazi di Chebyshev Bézier spazi generalizzati a tratti
Resumo:
Recentemente il consumo di carne ha attirato l'attenzione per motivi salutistici, ambientali ed etici; pertanto è sempre più urgente considerare formulazioni di prodotti a base di carne più salutari e sostenibili inclusi in una dieta sana e nutriente. In questa tesi sono stati valutati gli effetti in vitro sul microbiota intestinale umano di salami riformulati sostituendo i nitriti con acido ascorbico e antiossidanti vegetali. A questo scopo è stato utilizzato il modello intestinale in vitro MICODE, nella versione che include la digestione gastro-duodenale seguita dalla fermentazione colonica. Gli effetti sul microbiota intestinale sono stati valutati attraverso tecniche di analisi quantitativa Real Time qPCR in base agli shift di alcune popolazioni microbiche, sia quelle benefiche (come Lactobacillales, Bifidobacteriaceae, Clostridium gruppo IV), sia quelle opportuniste (come Enterobacteriaceae, Clostridium gruppo I) e infine il rapporto Firmicutes/Bacteroidetes (importante indice di eubiosi del microbiota intestinale dell’ospite). Inoltre, sono state analizzate, tramite SPME-GC-MS, le molecole volatili prodotte in seguito alla fermentazione colonica, sia positive, come gli SCFA, sia negative, come fenolo e cresolo. I risultati ottenuti hanno mostrato che le formulazioni innovative promuovono una generale eubiosi del microbiota intestinale e una riduzione di popolazioni microbiche negative, in confronto ai controlli. Inoltre, l’analisi del volatiloma evidenzia una maggiore produzione di molecole benefiche e una maggiore riduzione delle molecole negative per l’ospite. Sebbene le formulazioni innovative non abbiano dato benefici nettamente superiori a quelli dei controlli, i risultati ottenuti sono promettenti, in quanto gli antiossidanti utilizzati in sostituzione hanno dato risultati comparabili a quelli ottenuti con il formulato tradizionale.
Resumo:
En los últimos tiempos hemos asistido a diversas situaciones en las que la contratación de productos y servicios por los consumidores se encuentra fuertemente influenciada por distintas actuaciones empresariales que pueden calificarse como prácticas desleales por engañosas o agresivas. Esta realidad pone de manifiesto la intensa interrelación que existe entre contrato y mercado, y consecuentemente la necesidad de articular puentes de conexión entre el Derecho contratos y de la competencia desleal. Este trabajo aborda las conexiones entre estos sectores normativos con el fin de analizar las posibles soluciones a los problemas derivados de la contratación de consumo afectada por prácticas desleales. Tras una breve introducción donde se da debida cuenta del propósito y justificación de la investigación, el trabajo inicia con la exposición de la tradicional situación de desconexión entre las disciplinas contractual y concurrencial. Posteriormente, se analizan las conexiones intersectoriales en los planos axiológico y funcional, así como los distintos materiales normativos de los que se infieren esas aun incipientes conexiones. Sobre la base de lo anterior, se examinan las medidas correctoras individuales que el Derecho de la competencia desleal pone a disposición de los consumidores para hacer frente a las prácticas desleales, las propuestas de lege ferenda proporcionadas por la doctrina patria para remover los efectos contractuales de estas prácticas, así como las diversas soluciones ofrecidas por distintos Estados miembros de la UE. A continuación, se analizan los nuevos materiales normativos provenientes de la UE que ahondan en el proceso de permeabilización entre el Derecho de contratos y de la competencia desleal, así como las iniciativas legislativas tendentes a su incorporación a nuestro ordenamiento. El trabajo concluye con un conjunto de conclusiones reasuntivas entresacadas del estudio realizado, que se clausuran con la propuesta de algunas directrices para lo que entendemos sería una correcta incorporación de la normativa comunitaria.
Resumo:
Three dimensional (3D) printers of continuous fiber reinforced composites, such as MarkTwo (MT) by Markforged, can be used to manufacture such structures. To date, research works devoted to the study and application of flexible elements and CMs realized with MT printer are only a few and very recent. A good numerical and/or analytical tool for the mechanical behavior analysis of the new composites is still missing. In addition, there is still a gap in obtaining the material properties used (e.g. elastic modulus) as it is usually unknown and sensitive to printing parameters used (e.g. infill density), making the numerical simulation inaccurate. Consequently, the aim of this thesis is to present several work developed. The first is a preliminary investigation on the tensile and flexural response of Straight Beam Flexures (SBF) realized with MT printer and featuring different interlayer fiber volume-fraction and orientation, as well as different laminate position within the sample. The second is to develop a numerical analysis within the Carrera' s Unified Formulation (CUF) framework, based on component-wise (CW) approach, including a novel preprocessing tool that has been developed to account all regions printed in an easy and time efficient way. Among its benefits, the CUF-CW approach enables building an accurate database for collecting first natural frequencies modes results, then predicting Young' s modulus based on an inverse problem formulation. To validate the tool, the numerical results are compared to the experimental natural frequencies evaluated using a digital image correlation method. Further, we take the CUF-CW model and use static condensation to analyze smart structures which can be decomposed into a large number of similar components. Third, the potentiality of MT in combination with topology optimization and compliant joints design (CJD) is investigated for the realization of automated machinery mechanisms subjected to inertial loads.
Resumo:
The growing market of electrical cars, portable electronics, photovoltaic systems..etc. requires the development of efficient, low-cost, and low environmental impact energy storage devices (ESDs) including batteries and supercapacitors.. Due to their extended charge-discharge cycle, high specific capacitance, and power capabilities supercapacitors are considered among the most attractive ESDs. Over the last decade, research and development in supercapacitor technology have accelerated: thousands of articles have been published in the literature describing the electrochemical properties of the electrode materials and electrolyte in addition to separators and current collectors. Carbon-based supercapacitor electrodes materials have gained increasing attention due to their high specific surface area, good electrical conductivity, and excellent stability in harsh environments, as well as other characteristics. Recently, there has been a surge of interest in activated carbon derived from low-cost abundant sources such as biomass for supercapacitor electrode materials. Also, particular attention was given to a major challenging issue concerning the substitution of organic solutions currently used as electrolytes due to their highest electrochemical stability window even though their high cost, toxicity, and flammability. In this regard, the main objective of this thesis is to investigate the performances of supercapacitors using low cost abundant safe, and low environmental impact materials for electrodes and electrolytes. Several prototypes were constructed and tested using natural resources through optimization of the preparation of appropriate carbon electrodes using agriculture by-products waste or coal (i.e. Argan shell or Anthracite from Jerrada). Such electrodes were tested using several electrolyte formulations (aqueous and water in salt electrolytes) beneficing their non-flammability, lower cost, and environmental impact; the characteristics that provide a promising opportunity to design safer, inexpensive, and environmentally friendly devices compared to organic electrolytes.
Resumo:
La Convenzione delle Nazioni Unite sui Diritti delle Persone con Disabilità (UNCRPD) riconosce il diritto di tutte le persone al lavoro “gli Stati Parti adottano misure adeguate a garantire alle persone con disabilità, su base di uguaglianza con gli altri, l’accesso all’ambiente fisico, ai trasporti, all’informazione e alla comunicazione, compresi i sistemi e le tecnologie di informazione e comunicazione e ad altre attrezzature e servizi aperti o forniti al pubblico”(United Nation 2016 p.14). Nonostante i progressi (in ambito politico culturale) che si stanno compiendo in ambito internazionale in termini di pari opportunità e di inclusione, le persone in situazione di disabilità continuano a incontrare barriere che limitano la loro partecipazione attiva al mondo del lavoro. A partire da questo scenario, la ricerca si propone di indagare i bisogni (es. di accoglienza, di accesso al contesto fisico e digitale, di partecipazione nella vita dell’azienda ecc.) delle persone con disabilità e di sviluppare una applicazione digitale (web app), rivolta alle imprese, finalizzata a monitorare e a promuovere l'inclusione lavorativa. Ripercorrendo il modello di progettazione del design thinking e valorizzando un processo di ricerca basato su metodi misti (qualitativi e qualitativi) è stato ideato Job inclusion for all; un ambiente digitale fondato sull’adattamento di due strumenti di “metariflessione”: l’Index for inclusion job version e l’employment role mapping. Lo strumento digitale prototipato è stato testato e validato, durante l’ultimo anno di ricerca, da parte di una equipe multidisciplinare internazionale; tale processo ha consentito di raccogliere feedback (rispetto alla rilevanza e alla chiarezza degli item, rispetto ai punti di forza e di debolezza) che hanno consentito di migliorare e implementare la versione finale del prototipo di web app.
Resumo:
Questo studio affronta il tema della partecipazione comunitaria e del suo ruolo nella riorganizzazione dei servizi socio-sanitari della Regione Emilia-Romagna in una prospettiva antropologica. La partecipazione comunitaria è considerata ormai diffusamente un elemento importante per l’organizzazione dei servizi e in particolare nell’ambito delle cure primarie: si tratta infatti del comparto dell’assistenza più prossimo ai territori di vita delle persone, sebbene sia fortemente indebolito, a causa di un progressivo definanziamento e di una profonda svalutazione culturale. Nel contesto italiano, il tema della partecipazione comunitaria in salute ha informato l’istituzione del Servizio Sanitario Nazionale. Tuttavia, numerosi contributi hanno messo in luce come la partecipazione delle comunità nell’ambito della sanità sia un proposito rimasto da allora irrealizzato; altri hanno evidenziato come, in un’epoca in cui i nostri sistemi di welfare sono in crisi, la partecipazione venga talvolta strumentalizzata per esternalizzare i costi del lavoro di cura sulle comunità, anziché per promuovere la salute delle persone. Adottando i quadri teorici della Primary Health Care e della Salute Collettiva, il lavoro di ricerca si basa su un’etnografia multisituata e realizzata in tre diversi contesti: un progetto di cooperazione internazionale volto a sviluppare strumenti gestionali e organizzativi per la costruzione degli Ospedali di Comunità nella Regione Emilia-Romagna; un progetto inter-istituzionale che mira ad affrontare le disuguaglianze sociali nella città di Bologna; un progetto promosso da un ambulatorio di Medicina Generale di Ferrara che, sulla base di una proposta di riforma delle cure primarie avanzata da una gruppo di giovani professionisti/e della salute, ha avviato un percorso di partecipazione comunitaria. Questo studio mette in luce come la partecipazione possa contribuire alla costruzione di una “comunità di cura”, capace di negoziare affettivamente i percorsi di assistenza, co-gestire le risorse per la produzione di beni comuni e rigenerare la fiducia nei confronti delle cure primarie.
Resumo:
This thesis focuses on two main topics: photoresponsive azobenzene-based polymers and supramolecular systems generated by the self-assembly of lipophilic guanosines. In the first chapters describe innovative photoresponsive devices and materials capable of performing multiple roles in the field of soft robotics and energy conversion. Chapter 2 describes a device obtained by coupling a photoresponsive liquid-crystalline network and a piezoelectric polymer to convert visible light into electricity. Chapter 3 deals with a material that can assume different shapes when triggered by three different stimuli in different environments. Chapter 4 reports a highly performing artificial muscle that contracts when irradiated. The last two chapters report on supramolecular structures generated from functionalized guanosines dissolved in organic solvents. Chapter 6 illustrates the self-assembly into G-quadruplexes of 8- and 5’-functionalized guanosines in the absence of templating ions. Chapter 7 describes the supramolecular structure generated by the assembly of a lipophilic guanosine in the presence of silver cations. Chapter 6 is reproduced from an already published paper, while the other chapters are going to be submitted to different journals in a couple of months.
Resumo:
Nel nuovo secolo l’uomo sta cercando di affrontare le problematiche del cambiamento climatico, che purtroppo sta già provocando fenomeni di frequenza ed intensità mai visti. Fra i diversi metodi per provare a mitigare le emissioni di gas serra vi è quello di sfruttare il settore delle Informations and Communications Technologies (ICT). Complessivamente si stima che le ICT consumino l’8-10% di elettricità in Europa e che siano responsabili del 4% delle emissioni di carbonio del continente. Questo lavoro analizza la letteratura scientifica che si è occupata degli studi relativi ai consumi ed alle emissioni legate alle ICT. L’analisi dell’impatto ambientale viene svolta tramite il metodo Life Cycle Assessment (LCA). Nella prima parte di questa tesi si analizzano le impronte di carbonio di diversi prodotti o servizi degni di nota fino ad arrivare in generale a tutto il settore delle ICT. Nella seconda, si valutano gli impatti ambientali di sistemi implementati con le ICT comparati con altri considerati tradizionali. In questo studio, vengono analizzati i benefici e le criticità del metodo di valutazione LCA usato per studiare le ICT. Gli studi con questa tecnica sono basati sempre e solo su un modello matematico, per cui dipendono dalle ipotesi dello studio e sono associati ad una sostanziale incertezza che va considerata nell’analisi finale. Per questo motivo, applicando questo metodo al singolo prodotto, i risultati possono essere utili per fornire una base di dati per futuri studi, considerando, tuttavia, che non si può definire in maniera rigida l’impatto per ogni prodotto. Piuttosto, l’LCA è risultata più efficace per fare una comparazione tra scenari ICT e non ICT per valutare come si possa usare la tecnologia per mitigare l’impatto ambientale. Le ICT sono il presente ed il futuro della società ed è proprio per questo che è necessario monitorarle e svilupparle consapevolmente, perché per quanto l’impatto ambientale di esse possa sembrare basso, non è mai nullo.
Resumo:
Lo studio si basa sull’analisi di campioni di neve superficiale (0-3 cm) e sub-superficiale (3-6 cm) raccolti nei pressi della “clean area” di Concordia Station, nel plateau Antartico, e di campioni di deposizione raccolti a seguito di eventi di precipitazione nello stesso sito. Il sito di campionamento “clean area” è designato allo studio dei valori di fondo nel plateau antartico, poiché ritenuto privo di contaminazione antropica. L’obiettivo è la quantificazione delle concentrazioni in ultra-tracce di mercurio per lo studio di eventuali patterns relativi al ciclo geochimico dell’elemento nei periodi interessati da radiazione solare. Inoltre, per studiare i processi che controllano il ciclo del mercurio nel plateau Antartico sono stati considerati sia i parametri meteorologici che le variazioni di elementi chimici usati per tracciare le possibili sorgenti emissive ed i meccanismi di scambio che avvengono per il mercurio all’interfaccia aria-neve. Le analisi sono state svolte con ICP-SFMS, una tecnica di spettrometria in grado di rilevare concentrazioni nell’ordine del ppt. A causa dei limiti di rilevazione molto bassi, tutte le provette usate per le analisi e la conservazione dei campioni sono state trattate al fine di minimizzare la contaminazione. I campioni destinati alle analisi di mercurio sono stati trattati con acido, seguendo la procedura per la stabilizzazione di metalli volatili. Il lavoro svolto non ha identificato particolari processi di trasporto e di scambio mentre invece riporta episodi di contaminazione della “clean area” dovuti in parte alla non usuale provenienza del vento ed in parte al crescente impatto antropico dovuto alle attività delle stazioni di ricerca. Lo studio ha messo in luce le problematiche legate al possibile impatto della base di ricerca Concordia Station sui processi naturali evidenziando la necessità di ulteriori studi e approfondimenti sul tema della contaminazione della designata “area pulita” per il campionamento di neve.
Resumo:
Al contrario dei computer classici, i computer quantistici lavorano tramite le leggi della meccanica quantistica, e pertanto i qubit, ovvero l'unità base di informazione quantistica, possiedono proprietà estremamente interessanti di sovrapposizione ed entanglement. Queste proprietà squisitamente quantistiche sono alla base di innumerevoli algoritmi, i quali sono in molti casi più performanti delle loro controparti classiche. Obiettivo di questo lavoro di tesi è introdurre dal punto di vista teorico la logica computazionale quantistica e di riassumere brevemente una classe di tali algoritmi quantistici, ossia gli algoritmi di Quantum Phase Estimation, il cui scopo è stimare con precisione arbitraria gli autovalori di un dato operatore unitario. Questi algoritmi giocano un ruolo cruciale in vari ambiti della teoria dell'informazione quantistica e pertanto verranno presentati anche i risultati dell'implementazione degli algoritmi discussi sia su un simulatore che su un vero computer quantistico.
Resumo:
Negli ultimi anni, la ricerca scientifica nell’ambito delle neuroscienze cognitive ha sempre più focalizzato il suo interesse nei confronti dei ritmi cerebrali, ovvero oscillazioni neurali registrabili attraverso tecniche di elettrocenfalografia. In questo lavoro si è investigato il ruolo del ritmo alpha (7-12 Hz) e, in seconda misura, del ritmo gamma (> 30 Hz) rispetto all’attenzione spaziale selettiva. In particolare, partendo da modelli di massa neurale esistenti, si è riusciti a sviluppare un nuovo modello che riesce a simulare un compito di attenzione spaziale sulla base dell’inibition timing hypothesis, che assegna alle onde alpha un ruolo essenziale al fine di trascurare gli stimoli non rilevanti rispetto al compito da svolgere. Successivamente, è stato indagato l’effetto sul modello di alcune degenerazioni neurali tipiche di una delle patologie maggiormente invalidanti, la schizofrenia. Nello specifico, sulla base di evidenze sperimentali che riportano un calo della potenza delle onde gamma nei soggetti schizofrenici a causa della degenerazione degli interneuroni inibitori con dinamica sinaptica veloce, si è riusciti a simulare la progressiva alterazione neurale indotta dalla schizofrenia in termini di incapacità di inibire gli stimoli interferenti.
Resumo:
La tesi in oggetto ha lo scopo di valutare la fattibilità di sviluppare, sulla base di dati sperimentali, un metodo previsionale per il comportamento a fatica della lega AlSi10Mg prodotta mediante Laser Powder Bed Fusion, adattabile a componenti di dimensioni qualsiasi. La lega è stata trattata con invecchiamento diretto (T5) ottimizzato per ottenere una parziale riduzione delle tensioni residue senza comprometterne la durezza. Partendo da prove di fatica a flessione rotante condotte seguendo il metodo statistico Stair-Case per la definizione della resistenza a fatica, si vuole correlare il difetto killer, ossia quello che innesca la rottura del provino, alla caratterizzazione dei difetti condotta pre-prova con tomografia computerizzata ad alta risoluzione (µCT). Il difetto killer, osservato sulle superfici di frattura, viene analizzato in termini di dimensione, posizione e forma. Contemporaneamente è stato sviluppato un metodo per l’analisi dei difetti ottenuta con µCT tale da poter identificare quelli considerati più pericolosi, sulla base dello stato tensionale del campione, di posizione e dimensione dei difetti. Inoltre, è stata eseguita una caratterizzazione microstrutturale sulle sezioni trasversali dei campioni per valutare la quantità, dimensione e forma dei difetti e confrontarla con i dati di µCT. Per mostrare la relazione tra le dimensioni del difetto killer e la resistenza a fatica è stato adottato il diagramma di Kitagawa-Takahashi, con il modello di El Haddad. Dal confronto tra le metodologie è stata riscontrata una buona correlazione tra i difetti individuati come pericolosi dai dati di µCT e quelli che hanno effettivamente portato a rottura il campione, osservati in frattografia, supportando quindi la possibilità di sviluppare un metodo previsionale del comportamento a fatica. Quantitativamente, le dimensioni dei difetti killer sono nell’intervallo 90-130 µm e si trovano ad una distanza massima dalla superficie di non oltre 250 µm.
Resumo:
La cartilagine ad oggi rappresenta ancora una sfida per la medicina rigenerativa a causa della sua scarsa capacità di rigenerarsi quando sottoposta a gravi lesioni tissutali. Inoltre, la sua struttura complessa e l'ambiente biologico che offre sono ancora difficili da riprodurre con precisione mediante l’utilizzo di strutture bioartificiali e biomimetiche. Sebbene gli interventi per riparare i danni al tessuto cartilagineo siano ancora prevalentemente di stampo chirurgico, si stanno aprendo nuove strade nel campo dell'ingegneria tissutale volte a ricreare una struttura simile a quella originaria, che possa indurre la rigenerazione o sostituire direttamente il tessuto danneggiato. Lo studio condotto e discusso in questo elaborato mira a soddisfare quest'ultimo intento, ponendo le basi per un'eventuale evoluzione sperimentale della stampa del menisco. La ricerca si è basata sulla biostampa 3D di campioni di menisco, di dimensioni pari a circa 1 cm2, realizzati mediante un bioinchiostro a base di alginato e nanocellulosa, al cui interno sono stati immersi sferoidi/microtessuti di condrociti con diversa concentrazione. La stampa dei campioni è avvenuta in tre diverse condizioni: i) solo bioinchiostro, ii) bioinchiostro contenente sferoidi da 5000 cellule, iii) bioinchiostro contenente sferoidi da 10000 cellule. Al termine della stampa sono stati analizzati i campioni per verificare la sopravvivenza delle cellule e investigare l'attitudine di queste di ricreare matrice extracellulare cartilaginea nelle condizioni ambientali in cui sono state introdotte. A questo proposito, sono state eseguite delle analisi istochimiche, quali la RT-PCR e l’analisi istologica. Inoltre, a partire dalle immagini al microscopio degli sferoidi a seguito della loro formazione e dalle sezioni istologiche, sono state analizzate le dimensioni dei campioni per confrontare l'eventuale variazione volumetrica di questi prima della stampa e a seguito del processo di estrusione.
Resumo:
La memoria semantica, e la sua correlazione con il linguaggio, sono alla base di molti studi di neuroscienze cognitive e della formulazione di diverse teorie volte a comprendere la loro organizzazione, le unità neurali coinvolte e i meccanismi di apprendimento. In passato si cercava di rispondere a queste domande attraverso lo studio anatomico di lesioni della corteccia cerebrale in relazione al danno mnemonico che ne derivava per andare ad ipotizzare in quale area del cervello una determinata informazione veniva immagazzinata. Ricerche sempre più recenti hanno introdotto nel metodo di studio strumenti ed apparecchiature volte ad aiutare l’indagine e la ricerca, in modo da poter osservare e visualizzare quale area della corteccia viene attivata o disattivata in funzione ad uno specifico stimolo esterno. Infatti, l’attenzione dei ricercatori sui sintomi dei disturbi e sui disturbi stessi della memoria semantica, ha dato luce a molti aspetti importanti riguardo i meccanismi cerebrali fondamentali per la funzione corretta di tale memoria. Nel corso degli anni quindi attraverso questi studi sono stati sviluppati diversi modelli teorici con lo scopo di analizzare e studiare i meccanismi alla base delle diverse memorie, in questo caso della memoria semantica. È grazie a questi modelli che si può cercare di comprendere come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Pertanto, si esaminano i modelli computazionali tradizionali nell'ambito dei modelli di rete (basati su associazioni libere), dei modelli di caratteristiche (basati su norme di generazione di proprietà) e dei modelli distributivi, discutendo il loro contributo a importanti dibattiti in letteratura sulla rappresentazione della conoscenza e apprendimento. Inoltre, si valuta come i moderni modelli computazionali, ad esempio modelli basati sul recupero, stanno rivisitando il tradizionale concetto di memoria "statica".
Resumo:
Il presente elaborato è volto all’analisi di come viene pianificata la produzione in Fabiana Filippi spa e nello specifico al monitoraggio delle prestazioni dei fornitori di materie prime. L’attività di pianificazione della produzione viene infatti strutturata a partire dalle consegne che i fornitori confermano di riuscire a garantire; risulterebbe dunque inutile strutturare e pianificare una produzione se a monte non vengono monitorati i fornitori che ne permettono l’avvio. Proprio per questa ragione è stato introdotto uno strumento di monitoraggio dei fornitori che permetta di analizzarli completamente a 360°, sulla base di quattro parametri di riferimento: affidabilità di consegna, puntualità, qualità di consegna e rispetto delle quantità richieste. A ciascun fornitore è stata poi associata una classe (A, B, C) con lo scopo di individuare dei target minimi prestazionali che i fornitori appartenenti a ciascuna di esse devono raggiungere.Tali target minimi sono stati poi definiti a partire da un trade-off tra gli obiettivi prestazionali richiesti dall’azienda e i valori di prestazione medi ottenuti dai fornitori relativi ad una stessa classe. A partire dai valori prestazionali ottenuti di partenza (AS-IS), si è deciso di analizzare nello specifico la situazione di quattro differenti fornitori ai quali, sono state dapprima individuate le cause che determinavano un basso livello prestazionale e a partire da queste, trovate e poi applicate delle soluzioni migliorative al fine di elevare il livello prestazionale iniziale (TO-BE). I risultati ottenuti hanno permesso di dimostrare quanto sia migliorativo avere un sistema di monitoraggio continuo del livello di prestazione di fornitura che permetta dunque, qualora si registrino dei valori non soddisfacenti, di individuare delle soluzioni al fine di agevolare la fornitura e di conseguenza evitare ritardi di produzione.