222 resultados para Serie temporiali di dati, midpoint displacement, ricampionamento frattale
Resumo:
La presenza di Escherichia coli produttori di verocitotossine (VTEC o STEC) rappresenta una tra le più importanti cause di malattia alimentare attualmente presenti in Europa. La sua presenza negli allevamenti di animali destinati alla produzione di alimenti rappresenta un importante rischio per la salute del consumatore. In conseguenza di comuni contaminazioni che si realizzano nel corso della macellazione, della mungitura i VTEC possono essere presenti nelle carni e nel latte e rappresentano un grave rischio se la preparazione per il consumo o i processi di lavorazione non comportano trattamenti in grado d’inattivarli (es. carni crude o poco cotte, latte non pastorizzato, formaggi freschi a latte crudo). La contaminazione dei campi coltivati conseguente alla dispersione di letame o attraverso acque contaminate può veicolare questi stipiti che sono normalmente albergati nell’intestino di ruminanti (domestici e selvatici) e anche prodotti vegetali consumati crudi, succhi e perfino sementi sono stati implicati in gravi episodi di malattia con gravi manifestazioni enteriche e complicazioni in grado di causare quadri patologici gravi e anche la morte. Stipiti di VTEC patogeni ingeriti con gli alimenti possono causare sintomi gastroenterici, con diarrea acquosa o emorragica (nel 50% dei casi), crampi addominali, febbre lieve e in una percentuale più bassa nausea e vomito. In alcuni casi (circa 5-10%) l’infezione gastroenterica si complica con manifestazioni tossiemiche caratterizzate da Sindrome Emolitico Uremica (SEU o HUS) con anemia emolitica, insufficienza renale grave e coinvolgimento neurologico o con una porpora trombotica trombocitopenica. Il tasso di mortalità dei pazienti che presentano l’infezione da E. coli è inferiore all’1%. I dati forniti dall’ECDC sulle infezioni alimentari nel periodo 2006-2010 hanno evidenziato un trend in leggero aumento del numero di infezioni a partire dal 2007. L’obiettivo degli studi condotti è quello di valutare la prevalenza ed il comportamento dei VTEC per una analisi del rischio più approfondita.
Resumo:
Con il termine IPC (precondizionamento ischemico) si indica un fenomeno per il quale, esponendo il cuore a brevi cicli di ischemie subletali prima di un danno ischemico prolungato, si conferisce una profonda resistenza all’infarto, una delle principali cause di invalidità e mortalità a livello mondiale. Studi recenti hanno suggerito che l’IPC sia in grado di migliorare la sopravvivenza, la mobilizzazione e l’integrazione di cellule staminali in aree ischemiche e che possa fornire una nuova strategia per potenziare l’efficacia della terapia cellulare cardiaca, un’area della ricerca in continuo sviluppo. L’IPC è difficilmente trasferibile nella pratica clinica ma, da anni, è ben documentato che gli oppioidi e i loro recettori hanno un ruolo cardioprotettivo e che attivano le vie di segnale coinvolte nell’IPC: sono quindi candidati ideali per una possibile terapia farmacologica alternativa all’IPC. Il trattamento di cardiomiociti con gli agonisti dei recettori oppioidi Dinorfina B, DADLE e Met-Encefalina potrebbe proteggere, quindi, le cellule dall’apoptosi causata da un ambiente ischemico ma potrebbe anche indurle a produrre fattori che richiamino elementi staminali. Per testare quest’ipotesi è stato messo a punto un modello di “microambiente ischemico” in vitro sui cardiomioblasti di ratto H9c2 ed è stato dimostrato che precondizionando le cellule in modo “continuativo” (ventiquattro ore di precondizionamento con oppioidi e successivamente ventiquattro ore di induzione del danno, continuando a somministrare i peptidi oppioidi) con Dinorfina B e DADLE si verifica una protezione diretta dall’apoptosi. Successivamente, saggi di migrazione e adesione hanno mostrato che DADLE agisce sulle H9c2 “ischemiche” spronandole a creare un microambiente capace di attirare cellule staminali mesenchimali umane (FMhMSC) e di potenziare le capacità adesive delle FMhMSC. I dati ottenuti suggeriscono, inoltre, che la capacità del microambiente ischemico trattato con DADLE di attirare le cellule staminali possa essere imputabile alla maggiore espressione di chemochine da parte delle H9c2.
Resumo:
Tra i componenti naturali biologicamente attivi, e con cui è possibile arricchire il latte, notevole importanza rivestono gli acidi grassi Omega3 e i CLA. I ruoli benefici svolti da questi particolari lipidi si manifestano soprattutto nella regolazione dei processi infiammatori, nella prevenzione del diabete e delle malattie cardiovascolari; è inoltre dimostrato come i CLA abbiano attività anticancerogena e ipocolesterolemica, stimolino il sistema immunitario e prevengano l’insorgenza del diabete e delle malattie croniche non trasmissibili. Lo scopo di questo lavoro è stato quello di individuare, in condizioni sperimentali controllate e nelle comuni realtà di allevamento, le possibili strategie alimentari atte ad aumentare le concentrazioni di Omega-3 e CLA del latte vaccino, senza penalizzare i titoli di grasso del latte. I lavori sperimentali effettuati possono essere distinti in 3 fasi: una prima fase in cui l’oggetto principale delle ricerche svolte è stato l’incremento in acidi grassi Omega3 del latte, una seconda fase in cui l’obiettivo si è allargato anche all’incremento delle concentrazioni in CLA, e una terza fase che ha avuto come scopo quello di incrementare i livelli di Omega3 e CLA del latte senza penalizzare i titoli di grasso. Le strategie alimentari più efficaci si sono basate sulla modificazione degli apporti lipidici della razione attraverso la supplementazione con seme di soia o relativo olio, semi di lino o relativo olio, olii di pesce e acido stearico. Le ricerche svolte hanno evidenziato come, attraverso opportune ed accurate modulazioni degli apporti lipidici delle razioni, sia di fatto possibile innalzare i contenuti di acidi grassi della serie Omega3 e CLA nel latte vaccino, senza penalizzare i titoli del grasso del latte.
Resumo:
La Tesi analizza le relazioni tra i processi di sviluppo agricolo e l’uso delle risorse naturali, in particolare di quelle energetiche, a livello internazionale (paesi in via di sviluppo e sviluppati), nazionale (Italia), regionale (Emilia Romagna) e aziendale, con lo scopo di valutare l’eco-efficienza dei processi di sviluppo agricolo, la sua evoluzione nel tempo e le principali dinamiche in relazione anche ai problemi di dipendenza dalle risorse fossili, della sicurezza alimentare, della sostituzione tra superfici agricole dedicate all’alimentazione umana ed animale. Per i due casi studio a livello macroeconomico è stata adottata la metodologia denominata “SUMMA” SUstainability Multi-method, multi-scale Assessment (Ulgiati et al., 2006), che integra una serie di categorie d’impatto dell’analisi del ciclo di vita, LCA, valutazioni costi-benefici e la prospettiva di analisi globale della contabilità emergetica. L’analisi su larga scala è stata ulteriormente arricchita da un caso studio sulla scala locale, di una fattoria produttrice di latte e di energia elettrica rinnovabile (fotovoltaico e biogas). Lo studio condotto mediante LCA e valutazione contingente ha valutato gli effetti ambientali, economici e sociali di scenari di riduzione della dipendenza dalle fonti fossili. I casi studio a livello macroeconomico dimostrano che, nonostante le politiche di supporto all’aumento di efficienza e a forme di produzione “verdi”, l’agricoltura a livello globale continua ad evolvere con un aumento della sua dipendenza dalle fonti energetiche fossili. I primi effetti delle politiche agricole comunitarie verso una maggiore sostenibilità sembrano tuttavia intravedersi per i Paesi Europei. Nel complesso la energy footprint si mantiene alta poiché la meccanizzazione continua dei processi agricoli deve necessariamente attingere da fonti energetiche sostitutive al lavoro umano. Le terre agricole diminuiscono nei paesi europei analizzati e in Italia aumentando i rischi d’insicurezza alimentare giacché la popolazione nazionale sta invece aumentando.
Resumo:
Il tema generale del dottorato di ricerca è l'analisi delle politiche di attivazione in Italia durante la crisi economica. La combinazione di politiche attive e passive del lavoro viene interpretata ricorrendo al quadro teorico proposto da Amartya Sen e basato sul concetto di capability. Abbiamo considerato le misure nazionali e regionali nel quadro delle linee guida europee e analizzato le tendenze verso l'empowerment dei beneficiari di politiche del lavoro attraverso il concetto di capability proposto da Sen. La ricerca empirica ha utilizzato diversi strumenti per la raccolta dei dati: focus group, un questionario inviato ad un campione di 1.200 lavoratori, e interviste.
Resumo:
Il contesto nazionale è cambiato recentemente per l’introduzione del nuovo Sistema Geodetico coincidente con quello Europeo (ETRS89, frame ETRF00) e realizzato dalle stazioni della Rete Dinamica Nazionale. Sistema geodetico, associato al cartografico UTM_ETRF00, divenuto per decreto obbligatorio nelle Pubbliche Amministrazioni. Questo cambiamento ha consentito di ottenere rilevamenti dei dati cartografici in coordinate assolute ETRF00 molto più accurate. Quando i dati così rilevati vengono utilizzati per aggiornamenti cartografici perdono le coordinate originarie e vengono adattati a particolari cartografici circostanti. Per progettare una modernizzazione delle mappe catastali e delle carte tecniche finalizzata a consentire l’introduzione degli aggiornamenti senza modificarne le coordinate assolute originarie, lo studio è iniziato valutando come utilizzare sviluppi di strutturazione dei dati topografici presenti nel Database Geotopografico, modellizzazioni 3D di fabbricati nelle esperienze catastali INSPIRE, integrazioni in ambito MUDE tra progetti edilizi e loro realizzazioni. Lo studio è proseguito valutando i servizi di posizionamento in tempo reale NRTK presenti in Italia. Inoltre sono state effettuate sperimentazioni per verificare anche in sede locale la precisione e l’affidabilità dei servizi di posizionamento presenti. La criticità della cartografia catastale deriva sostanzialmente dal due fatti: che originariamente fu inquadrata in 850 Sistemi e successivamente fu trasformata in Roma40 con una esigua densità di punti rimisurati; che fino al 1988 fu aggiornata con modalità non rigorose di bassa qualità. Per risolvere tali criticità si è quindi ipotizzato di sfruttare le modalità di rilevamento NRTK per aumentare localmente la densità dei punti rimisurati e reinquadrare le mappe catastali. Il test, realizzato a Bologna, ha comportato un’analisi preliminare per individuare quali Punti Fiduciali considerare coerenti con le specifiche cartografiche per poi utilizzarli e aumentare localmente la densità dei punti rimisurati. La sperimentazione ha consentito la realizzazione del progetto e di inserire quindi i prossimi aggiornamenti senza modificarne le coordinate ETRF00 ottenute dal servizio di posizionamento.
Resumo:
Il primo studio ha verificato l'affidabilità del software Polimedicus e gli effetti indotti d'allenamento arobico all’intensità del FatMax. 16 soggetti sovrappeso, di circa 40-55anni, sono stati arruolati e sottoposti a un test incrementale fino a raggiungere un RER di 0,95, e da quel momento il carico è stato aumentato di 1 km/ h ogni minuto fino a esaurimento. Successivamente, è stato verificato se i valori estrapolati dal programma erano quelli che si possono verificare durante a un test a carico costante di 1ora. I soggetti dopo 8 settimane di allenamento hanno fatto un altro test incrementale. Il dati hanno mostrato che Polimedicus non è molto affidabile, soprattutto l'HR. Nel secondo studio è stato sviluppato un nuovo programma, Inca, ed i risultati sono stati confrontati con i dati ottenuti dal primo studio con Polimedicus. I risultati finali hanno mostrato che Inca è più affidabile. Nel terzo studio, abbiamo voluto verificare l'esattezza del calcolo del FatMax con Inca e il test FATmaxwork. 25 soggetti in sovrappeso, tra 40-55 anni, sono stati arruolati e sottoposti al FATmaxwork test. Successivamente, è stato verificato se i valori estrapolati da INCA erano quelli che possono verificarsi durante un carico di prova costante di un'ora. L'analisi ha mostrato una precisione del calcolo della FatMax durante il carico di lavoro. Conclusione: E’ emersa una certa difficoltà nel determinare questo parametro, sia per la variabilità inter-individuale che intra-individuale. In futuro bisognerà migliorare INCA per ottenere protocolli di allenamento ancora più validi.
Resumo:
Il presente lavoro è strutturato in quattro parti analizzando e comparando le pubblicazioni del settore scientifico italiano, anglofono e tedesco di riferimento. Nel primo capitolo della tesi viene proposta una riflessione sulle parole che ruotano attorno al tema dei DSA e della disabilità. Nel secondo capitolo vengono presentati, a partire dalla letteratura scientifica di riferimento, gli indicatori di rischio che segnalano possibili disturbi specifici di apprendimento e le caratteristiche di apprendimento dei DSA mettendo in luce potenzialità e talenti spesso intrinseci. Nel terzo capitolo viene vagliata la normativa di riferimento, in particolare la recente Legge 170/2010 e le relative Linee Guida. Nel quarto capitolo, partendo dal tema della diffusione delle tecnologie dell’informazione e della comunicazione (da ora in poi TIC) nel mondo della scuola, sono ampiamente trattati i principali strumenti compensativi (sintesi vocale, libri digitali, mappe concettuali, Lavagna Interattiva Multimediale) e le misure dispensative adottabili. Nel quinto capitolo viene analizzato in tutte le sue parti il Piano Didattico Personalizzato (da ora in poi PDP) e viene proposto un possibile modello di PDP pubblicato sul sito dell'Ufficio per l’Ambito Territoriale di Bologna. Nel sesto capitolo della tesi viene presentato il Progetto Regionale ProDSA. Il Progetto, rivolto a studenti, con diagnosi di DSA, delle scuole secondarie di primo grado e del primo biennio delle secondarie di secondo grado dell’Emilia-Romagna, ha visto, grazie a un finanziamento della Regione, la consegna in comodato d'uso gratuito di tecnologie compensative agli alunni che hanno aderito. La sezione empirica del presente lavoro indaga l’uso reale che è stato fatto degli strumenti proposti in comodato d’uso e le motivazioni legate alla scelta di non utilizzarli in classe. Nel settimo capitolo vengono proposti strumenti progettati per rispondere concretamente alle criticità emerse dall'analisi dei dati e per sensibilizzare il mondo della scuola sulle caratteristiche dei DSA.
Resumo:
Characteristics of modern food demand force retailers to acquire more information about product process along the food supply chain to ensure that product are in accordance with consumer preference. Therefore, the product process involves more information flows between buyer and supplier which requires collaborative efforts. These changes translate into several studies on the inter-organizational relationship in agri-food systems. Studies on inter-organizational relationships have been conducted in various academic disciplines, including sociology, psychology, law, economics, marketing, management, and combination of these. Inter-organizational relationships is an interaction between organizations which involved firms horizontally, as well as, vertically. In this study we deal with vertical, buyer-seller relationship which are sometimes referred to chain relationships. We define vertical business relationship in the agriculture-food based sector as “agri-food chain relationships”. The focus is on sustainable inter-organizational relationships in a way that they can be scientifically investigated. We study characteristics which ensure that a relationship is long-lasting and rewarding for all involved parties in the sardinian dairy. We test the theoretical model using structural equation modeling. The results suggest that the most important determinant for the relationships is technology and the price isn’t significant for the relationship governance.
Resumo:
Nella presente tesi è proposta una metodologia per lo studio e la valutazione del comportamento sismico di edifici a telaio. Il metodo prevede la realizzazione di analisi non-lineari su modelli equivalenti MDOF tipo stick, in accordo alla classificazione data nel report FEMA 440. Gli step per l’applicazione del metodo sono descritti nella tesi. Per la validazione della metodologia si sono utilizzati confronti con analisi time-history condotte su modelli tridimensionali dettagliati delle strutture studiate (detailed model). I parametri ingegneristici considerati nel confronto, nell’ottica di utilizzare il metodo proposto in un approccio del tipo Displacement-Based Design sono lo spostamento globale in sommità, gli spostamenti di interpiano, le forze di piano e la forza totale alla base. I risultati delle analisi condotte sui modelli stick equivalenti, mostrano una buona corrispondenza, ottima in certi casi, con quelli delle analisi condotte sui modelli tridimensionali dettagliati. Le time-history realizzate sugli stick model permettono però, un consistente risparmio in termini di onere computazionale e di tempo per il post-processing dei risultati ottenuti.
Resumo:
Il presente lavoro ha lo scopo di presentare gli studi e i risultati ottenuti durante l’attività di ricerca svolta sul Displacement-based Assessment (DBA) dei telai in cemento armato. Dopo alcune considerazioni iniziali sul tema della vulnerabilità sismica e sui metodi di analisi e verifica, si procede alla descrizione teorica del metodo. Sono stati analizzati tre casi studio di telai piani, progettati per soli carichi verticali e secondo normative non più in vigore che non prevedevano l’applicazione della gerarchia delle resistenze. I telai considerati, destinati ad abitazione civile, hanno diversa altezza e numero di piani, e diverso numero di campate. Si è proceduto all’applicazione del metodo, alla valutazione della vulnerabilità sismica in base alla domanda in termini di spostamento costituita da uno spettro elastico previsto dall’EC8 e alla validazione dei risultati ottenuti mediante analisi non lineari statiche e dinamiche e mediante l’applicazione dei teoremi dell’Analisi limite dei telai, proposta come procedura alternativa per la determinazione del meccanismo anelastico e della capacità in termini di taglio alla base. In ultimo si è applicata la procedura DBA per la valutazione della vulnerabilità sismica di un edificio scolastico, realizzato tra il 1969 e il 1975 in un sito caratterizzato da una accelerazione di picco orizzontale pari a 0,24g e una probabilità di superamento del 10% in 75 anni.
Resumo:
La città medievale di Leopoli-Cencelle (fondata da Papa Leone IV nell‘854 d.C. non lontano da Civitavecchia) è stata oggetto di studio e di periodiche campagne di scavo a partire dal 1994. Le stratigrafie investigate con metodi tradizionali, hanno portato alla luce le numerose trasformazioni che la città ha subìto nel corso della sua esistenza in vita. Case, torri, botteghe e strati di vissuto, sono stati interpretati sin dall’inizio dello scavo basandosi sulla documentazione tradizionale e bi-dimensionale, legata al dato cartaceo e al disegno. Il presente lavoro intende re-interpretare i dati di scavo con l’ausilio delle tecnologie digitali. Per il progetto sono stati utilizzati un laser scanner, tecniche di Computer Vision e modellazione 3D. I tre metodi sono stati combinati in modo da poter visualizzare tridimensionalmente gli edifici abitativi scavati, con la possibilità di sovrapporre semplici modelli 3D che permettano di formulare ipotesi differenti sulla forma e sull’uso degli spazi. Modellare spazio e tempo offrendo varie possibilità di scelta, permette di combinare i dati reali tridimensionali, acquisiti con un laser scanner, con semplici modelli filologici in 3D e offre l’opportunità di valutare diverse possibili interpretazioni delle caratteristiche dell’edificio in base agli spazi, ai materiali, alle tecniche costruttive. Lo scopo del progetto è andare oltre la Realtà Virtuale, con la possibilità di analizzare i resti e di re-interpretare la funzione di un edificio, sia in fase di scavo che a scavo concluso. Dal punto di vista della ricerca, la possibilità di visualizzare le ipotesi sul campo favorisce una comprensione più profonda del contesto archeologico. Un secondo obiettivo è la comunicazione a un pubblico di “non-archeologi”. Si vuole offrire a normali visitatori la possibilità di comprendere e sperimentare il processo interpretativo, fornendo loro qualcosa in più rispetto a una sola ipotesi definitiva.
Resumo:
Le considerazioni sviluppate in questo scritto si pongono come obiettivo quello di fare chiarezza sul delicato tema delle opere di urbanizzazione a scomputo. La normativa concernente la realizzazione delle opere pubbliche a scomputo totale o parziale degli oneri di urbanizzazione è stata oggetto di svariate modifiche e interpretazioni giurisprudenziali, che si sono susseguite dopo l'importante pronuncia della Corte di Giustizia Europea. E' con questa sentenza che i Giudici del Kirchberg introducono un particolare obbligo procedurale a carico dei privati: nel caso in cui singole opere superino i valori di rilevanza europea, esse devono essere affidate, applicando le procedure di gara previste dalla direttiva 37/93/CEE. Va precisato che sino a quel momento l'affidamento diretto delle opere al privato costituiva nell'ottica del Legislatore lo strumento per realizzare le infrastrutture necessarie per consentire gli insediamenti edilizi che la pubblica amministrazione spesso non era in grado di effettuare. In questo panorama legislativo la sentenza della Corte di Giustizia, appare del tutto dirompente. Infatti, introducendo il principio secondo cui anche la realizzazione diretta delle opere di urbanizzazione da parte del privato deve sottostare alle regole delle procedure europee in materia di appalti, mette inevitabilmente a confronto due normative, quella degli appalti pubblici e quella dell'urbanistica, che sino a quel momento erano riuscite a viaggiare in modo parallelo, senza dar luogo a reciproche sovrapposizioni. Il Legislatore nazionale ha, con molta fatica, recepito il principio comunitario ed è stato negli anni quasi costretto, attraverso una serie di modifiche legislative, ad ampliarne la portata. La presente ricerca, dopo aver analizzato i vari correttivi apportati al Codice degli appalti pubblici vuole, quindi, verificare se l'attuale quadro normativo rappresenti un vero punto di equilibrio tra le contrapposte esigenze di pianificazione del territorio e di rispetto dei principi comunitari di concorrenza nella scelta del contraente.
Resumo:
Lo studio analizza il modo in cui la storia dell’arte e la visual culture vengono utilizzate all’interno delle medical humanities, e cerca di suggerire un metodo più utile rispetto a quelli fin qui proposti. Lo scritto è organizzato in due parti. Nella prima parte sono analizzate alcune teorie e pratiche delle scienze umane in medicina. In particolare, ci concentriamo sulla medicina narrativa e sugli approcci con cui la storia dell’arte viene inclusa nella maggioranza dei programmi di medical humanities. Dopodiché, proponiamo di riconsiderare questi metodi e di implementare il ruolo di un pensiero storico e visivo all’interno di tali insegnamenti. Nella seconda parte, alla luce di quanto emerso nella prima, ci dedichiamo a uno studio di caso: la rappresentazione della melanconia amorosa, o mal d’amore, in una serie di dipinti olandesi del Secolo d’Oro. Colleghiamo queste opere a trattati medico-filosofici dell’epoca che permettano di inquadrare il mal d’amore in un contesto storico; in seguito, analizziamo alcune interpretazioni fornite da studiosi e storici dell’arte a noi contemporanei. In particolare, esaminiamo lo studio pionieristico di Henry Meige, pubblicato sulla “Nouvelle iconographie de la Salpêtrière” nel 1899, da cui emerge la possibilità di un confronto critico sia con le posizioni iconodiagnostiche di Charcot e Richer sia con quelle della prima psicoanalisi.
Resumo:
L’elaborato ha lo scopo di presentare le nuove opportunità di business offerte dal Web. Il rivoluzionario cambiamento che la pervasività della Rete e tutte le attività correlate stanno portando, ha posto le aziende davanti ad un diverso modo di relazionarsi con i propri consumatori, che sono sempre più informati, consapevoli ed esigenti, e con la concorrenza. La sfida da accettare per rimanere competitivi sul mercato è significativa e il mutamento in rapido sviluppo: gli aspetti che contraddistinguono questo nuovo paradigma digitale sono, infatti, velocità, mutevolezza, ma al tempo stesso misurabilità, ponderabilità, previsione. Grazie agli strumenti tecnologici a disposizione e alle dinamiche proprie dei diversi spazi web (siti, social network, blog, forum) è possibile tracciare più facilmente, rispetto al passato, l’impatto di iniziative, lanci di prodotto, promozioni e pubblicità, misurandone il ritorno sull’investimento, oltre che la percezione dell’utente finale. Un approccio datacentrico al marketing, attraverso analisi di monitoraggio della rete, permette quindi al brand investimenti più mirati e ponderati sulla base di stime e previsioni. Tra le più significative strategie di marketing digitale sono citate: social advertising, keyword advertising, digital PR, social media, email marketing e molte altre. Sono riportate anche due case history: una come ottimo esempio di co-creation in cui il brand ha coinvolto direttamente il pubblico nel processo di produzione del prodotto, affidando ai fan della Pagina Facebook ufficiale la scelta dei gusti degli yogurt da mettere in vendita. La seconda, caso internazionale di lead generation, ha permesso al brand di misurare la conversione dei visitatori del sito (previa compilazione di popin) in reali acquirenti, collegando i dati di traffico del sito a quelli delle vendite. Esempio di come online e offline comunichino strettamente.