971 resultados para Nubi di Magellano, ammassi globulari, sistemi binari, profili di densità, isocrone
Resumo:
Il nucleo accumbens (NAc), il maggior componente del sistema mesocorticolimbico, è coinvolto nella mediazione delle proprietà di rinforzo e nella dipendenza da diverse sostanze d’abuso. Le sinapsi glutammatergiche del NAc possono esprimere plasticità, tra cui una forma di depressione a lungo termine (LTD) dipendente dagli endocannabinoidi (eCB). Recenti studi hanno dimostrato un’interazione tra le vie di segnalazione del sistema eCB e quelle di altri sistemi recettoriali, compreso quello serotoninergico (5-HT); la vasta colocalizzazione di recettori serotoninergici e CB1 nel NAc suggerisce la possibilità di un’interazione tra questi due sistemi. In questo studio abbiamo riscontrato che una stimolazione a 4 Hz per 20 minuti (LFS-4Hz) delle afferenze glutammatergiche in fettine cerebrali di ratto, induce una nuova forma di eCB-LTD nel core del NAc, che richiede l’attivazione dei recettori CB1 e 5-HT2 e l’apertura dei canali del Ca2+ voltaggio-dipendenti di tipo L. Inoltre abbiamo valutato che l’applicazione esogena di 5-HT (5 M, 20 min) induce una LTD analoga (5-HT-LTD) a livello delle stesse sinapsi, che richiede l’attivazione dei medesimi recettori e l’apertura degli stessi canali del Ca2+; LFS-4Hz-LTD e 5-HT-LTD sono reciprocamente saturanti. Questi risultati suggeriscono che la LFS-4Hz induce il rilascio di 5-HT, che si lega ai recettori 5-HT2 a livello postsinaptico incrementando l’influsso di Ca2+ attraverso i canali voltaggio-dipendenti di tipo L e la produzione e il rilascio di 2-arachidonoilglicerolo; l’eCB viaggia a ritroso e si lega al recettore CB1 a livello presinaptico, causando una diminuzione duratura del rilascio di glutammato, che risulta in una LTD. Queste osservazioni possono essere utili per comprendere i meccanismi neurofisiologici che sono alla base della dipendenza da sostanze d’abuso, della depressione maggiore e di altre malattie psichiatriche caratterizzate dalla disfunzione della neurotrasmissione di 5-HT nel NAc.
Resumo:
Il progetto di ricerca che ho svolto in questi mesi si è focalizzato sull'integrazione dei risultati raggiunti grazie all'elaborazione di nuovi dati sperimentali. Questi sono stati prelevati dalla corteccia visiva di macachi, attraverso l'utilizzo di tecniche di registrazione elettro-fisiologiche mediante array di micro-elettrodi[25], durante la presentazionedi alcuni filmati (sequenze di immagini o frames). Attraverso la tecnica del clustering, dalle registrazioni degli esperimenti sono stati raggruppati gli spike appartenenti ad uno stesso neurone, sfruttando alcune caratteristiche come la forma del potenziale d'azione. Da questa elaborazione e stato possibile risalire a quali stimoli hanno prodotto una risposta neurale. I dati messi a disposizione da Ringach non potevano essere trattati direttamente con le tecniche della spike-triggered average e della spike-triggered covariance a causa di alcune loro caratteristiche. Utilizzando filtri di Gabor bidimensionali e l'energia di orientazione e stato pero possibile modellare la risposta di cellule complesse in corteccia visiva primaria. Applicare questi modelli su dati ad alta dimensionalita immagini molto grandi), sfruttando la tecnica di standardizzazione (Z-score), ha permesso di individuare la regione, la scala e l'orientazione all'interno del piano immagine dei profili recettivi delle cellule di cui era stata registrata l'attività neurale. Ritagliare tale regione e applicare la spike-triggered covariance su dati della giusta dimensionalita, permetterebbe di risalire ai profili recettivi delle cellule eccitate in un preciso momento, da una specifica immagine e ad una precisa scala e orientazione. Se queste ipotesi venissero confermate si potrebbe marcare e rafforzare la bontà del modello utilizzato per le cellule complesse in V1 e comprendere al meglio come avviene l'elaborazione delle immagini.
Resumo:
Al fine di migliorare le tecniche di coltura cellulare in vitro, sistemi a bioreattore sono sempre maggiormente utilizzati, e.g. ingegnerizzazione del tessuto osseo. Spinner Flasks, bioreattori rotanti e sistemi a perfusione di flusso sono oggi utilizzati e ogni sistema ha vantaggi e svantaggi. Questo lavoro descrive lo sviluppo di un semplice bioreattore a perfusione ed i risultati della metodologia di valutazione impiegata, basata su analisi μCT a raggi-X e tecniche di modellizzazione 3D. Un semplice bioreattore con generatore di flusso ad elica è stato progettato e costruito con l'obiettivo di migliorare la differenziazione di cellule staminali mesenchimali, provenienti da embrioni umani (HES-MP); le cellule sono state seminate su scaffold porosi di titanio che garantiscono una migliore adesione della matrice mineralizzata. Attraverso un microcontrollore e un'interfaccia grafica, il bioreattore genera tre tipi di flusso: in avanti (senso orario), indietro (senso antiorario) e una modalità a impulsi (avanti e indietro). Un semplice modello è stato realizzato per stimare la pressione generata dal flusso negli scaffolds (3•10-2 Pa). Sono stati comparati tre scaffolds in coltura statica e tre all’interno del bioreattore. Questi sono stati incubati per 21 giorni, fissati in paraformaldehyde (4% w/v) e sono stati soggetti ad acquisizione attraverso μCT a raggi-X. Le immagini ottenute sono state poi elaborate mediante un software di imaging 3D; è stato effettuato un sezionamento “virtuale” degli scaffolds, al fine di ottenere la distribuzione del gradiente dei valori di grigio di campioni estratti dalla superficie e dall’interno di essi. Tale distribuzione serve per distinguere le varie componenti presenti nelle immagini; in questo caso gli scaffolds dall’ipotetica matrice cellulare. I risultati mostrano che sia sulla superficie che internamente agli scaffolds, mantenuti nel bioreattore, è presente una maggiore densità dei gradienti dei valori di grigio ciò suggerisce un migliore deposito della matrice mineralizzata. Gli insegnamenti provenienti dalla realizzazione di questo bioreattore saranno utilizzati per progettare una nuova versione che renderà possibile l’analisi di più di 20 scaffolds contemporaneamente, permettendo un’ulteriore analisi della qualità della differenziazione usando metodologie molecolari ed istochimiche.
Resumo:
La tecnologia odierna, orientata sempre di più verso il “low-power”, ha permesso di poter sviluppare sistemi elettronici in grado di autoalimentarsi senza alcun bisogno di sorgenti di energia tradizionali. Questo è possibile, ad esempio, utilizzando trasduttori piezoelettrici, in grado di trasformare l’energia meccanica, provocata ad esempio da una vibrazione, in un’altra forma di energia che, in tal caso, risulta essere una grandezza elettrica. Il settore principale in cui viene impiegato questo componente è quello dell’Energy Harvesting, ovvero un campo dell’elettronica in cui si cerca di estrarre dall'ambiente circostante bassissime quantità di energia mediante tecniche opportune, cercando di ridurre i consumi dei circuiti di controllo annessi e renderli, in maggior parte, il più possibile autosufficienti. L’obiettivo è quello di implementare alcune tecniche di recupero dell’energia mediante circuiti gestiti a microcontrollore e valutare se tali metodiche portino a risultati accettabili in grado di soddisfare quelli che sono i requisiti che il mondo dell’Energy Harvesting richiede.
Resumo:
Studio e realizzazione di una rete wireless di microcontrollori dotati di sensori, che comunicano mediante protocollo ZigBee (basato sul protocollo IEEE 802.15.4).
Resumo:
È impossibile implementare sorgenti autenticamente casuali su hardware digitale. Quindi, storicamente, si è fatto ampio uso di generatori di numeri pseudo-casuali, evitando così i costi necessari per la progettazione di hardware analogico dedicato. Tuttavia, le sorgenti pseudo-casuali hanno proprietà (riproducibilità e periodicità) che si trasformano in vulnerabilità, nel caso in cui vengano adottate in sistemi di sicurezza informatica e all’interno di algoritmi crittografici. Oggi la richiesta di generatori di numeri autenticamente casuali è ai suoi massimi storici. Alcuni importanti attori dell’ICT sviluppato proprie soluzioni dedicate, ma queste sono disponibili solo sui sistemi moderni e di fascia elevata. È quindi di grande attualità rendere fruibili generatori autenticamente casuali per sistemi già esistenti o a basso costo. Per garantire sicurezza e al tempo stesso contenere i costi di progetto è opportuno pensare ad architetture che consentano di riusare parti analogiche già disponibili. Particolarmente interessanti risultano alcune architetture che, grazie all’utilizzo di dinamiche caotiche, consentono di basare buona parte della catena analogica di elaborazione su ADC. Infatti, tali blocchi sono ampiamente fruibili in forma integrata su architetture programmabili e microcontrollori. In questo lavoro, si propone un’implementazione a basso costo ed elevata flessibilità di un architettura basata su un ADC, inizialmente concepita all’Università di Bologna. La riduzione di costo viene ottenuta sfruttando il convertitore già presente all’interno di un microcontrollore. L’elevata flessibilità deriva dal fatto che il microcontrollore prescelto mette a disposizione una varietà di interfacce di comunicazione, tra cui quella USB, con la quale è possibile rendere facilmente fruibili i numeri casuali generati. Quindi, l’intero apparato comprende solo un microcontrollore e una minima catena analogica di elaborazione esterna e può essere interfacciato con estrema facilità ad elaboratori elettronici o sistemi embedded. La qualità della proposta, in termini di statistica delle sequenze casuali generate, è stata validata sfruttando i test standardizzati dall’U.S. NIST.
Resumo:
La costituzione dell’Unione Europea nel 1993 pose la questione del dover aiutare le regioni svantaggiate in essa contenute, allo scopo di promuovere i principi di eguaglianza appena stipulati. Allo stesso tempo si dovette cercare uno strumento per facilitare la collaborazione fra le regioni appartenenti all’Unione stessa. Tale strumento sono i Fondi Strutturali Europei, un sistema di autofinanziamento utilizzato per promuovere progetti lavorativi, di cultura o di ricerca in tutta Europa. La distribuzione dei fondi avviene secondo delle regole specifiche e spesso i temi verso cui i fondi vengono rivolti sono scelti di comune accordo tra i Paesi membri. Le amministrazioni regionali hanno quindi la possibilità di usufruire di una notevole quantità di denaro, giustificando in modo appropriato la destinazione d’uso dei fondi e stilando dei piani che ne descrivano la loro suddivisione nei vari progetti. In seguito all’evoluzione tecnologica degli anni ’60 e ’70 nacquero nuovi strumenti a favore delle aziende: i DSS (Decision Support System), descritti come “sistemi informatici a supporto del processo decisionale”. L’uso di questa nuova tecnologia permise una facilitazione dei compiti decisionali, oltre ad un miglioramento delle prestazioni negli ambiti di applicazione. Da tali premesse nascono diversi progetti che puntano ad utilizzare strumenti di supporto alle decisioni nei campi più diversi: amministrativo, medico, politico, culturale. In particolare, l’area d’applicazione politica vive un grande fermento negli ultimi anni, grazie a strumenti in grado di aiutare la classe politica in decisioni su più livelli di scelta e su una grosse mole di dati. Un esempio fra gli altri è la redazione del Programma Operativo Regionale, il quale fa affidamento sui finanziamenti dei Fondi Strutturali Europei per potersi sostentare. Negli ultimi anni la Regione Emilia-Romagna ha puntato molto sull’uso di strumenti informatici e automatizzati come aiuto nella compilazione di progetti, piani operativi e preventivi di spesa, sviluppando delle collaborazioni con diversi Enti ed Università, tra le quali l’Università degli Studi di Bologna. L’ultimo progetto realizzato in collaborazione con la Regione, e qui esposto, riguarda la realizzazione di uno strumento di supporto alle decisioni politiche per la ripartizione dei Fondi Europei, in particolare quelli destinati al Programma Operativo Regionale (POR).
Resumo:
I sistemi di intelligenza artificiale vengono spesso messi a confronto con gli aspetti biologici riguardanti il cervello umano. L’interesse per la modularità è in continua crescita, che sta portando a risultati davvero interessanti attraverso l’utilizzo di sistemi artificiali intelligenti, come le reti neuronali. Molte reti, sia biologiche sia artificiali sono organizzate in moduli, i quali rappresentano cluster densi di parti interconnesse fra loro all’interno di una rete complessa. Nel campo dell’ingegneria, si usano design modulari per spiegare come una macchina è costituita da parti separate. Lo studio della struttura e delle funzioni di organismi/processi complessi si basa implicitamente su un principio di organizzazione modulare, vale a dire si dà per acquisito il fatto che siano modulari, cioè composti da parti con forma e/o funzioni diverse. Questo elaborato si propone di esporre gli aspetti fondamentali riguardanti la modularità di reti neuronali, le sue origini evolutive, le condizioni necessarie o sufficienti che favoriscono l’emergere dei moduli e relativi vantaggi. Il primo capitolo fornisce alcune conoscenze di base che permettono di leggere gli esperimenti delle parti successive con consapevolezza teorica più profonda. Si descrivono reti neuronali artificiali come sistemi intelligenti ispirati alla struttura di reti neurali biologiche, soffermandosi in particolare sulla rete feed-forward, sull’algoritmo di backpropagation e su modelli di reti neurali modulari. Il secondo capitolo offre una visione delle origini evolutive della modularità e dei meccanismi evolutivi riguardanti sistemi biologici, una classificazione dei vati tipi di modularità, esplorando il concetto di modularità nell’ambito della psicologia cognitiva. Si analizzano i campi disciplinari a cui questa ricerca di modularità può portare vantaggi. Dal terzo capitolo che inizia a costituire il corpo centrale dell’elaborato, si dà importanza alla modularità nei sistemi computazionali, illustrando alcuni casi di studio e relativi metodi presenti in letteratura e fornendo anche una misura quantitativa della modularità. Si esaminano le varie possibilità di evoluzione della modularità: spontanea, da specializzazione, duplicazione, task-dependent, ecc. passando a emulare l’evoluzione di sistemi neurali modulari con applicazione al noto modello “What-Where” e a vari modelli con caratteristiche diverse. Si elencano i vantaggi che la modularità produce, soffermandosi sull’algoritmo di apprendimento, sugli ambienti che favoriscono l’evoluzione della modularità con una serie di confronti fra i vari tipi, statici e dinamici. In ultimo, come il vantaggio di avere connessioni corte possa portare a sviluppare modularità. L’obiettivo comune è l’emergere della modularità in sistemi neuronali artificiali, che sono usati per applicazioni in numerosi ambiti tecnologici.
Resumo:
I moderni sistemi computazionali hanno reso applicazioni e dispositivi sempre più complessi e versatili, integrando in essi un numero crescente di funzioni. Da qui si avverte la necessità di un design d’interfaccia utente efficace e pratico che renda il rapporto uomo/macchina semplice ed intuitivo. Negli ultimi anni questo proposito è stato accolto da sviluppatori e progettisti che si sono affacciati nel mondo della “Realtà Aumentata”, una nuova visione d’insieme nel rapporto tra mondo reale e virtuale. Augmented Reality (AR), propone infatti di sviluppare nuove interfacce uomo-computer, che invece di mostrare le informazioni digitali su display isolati, immergano i dati stessi nell’ambiente concreto. Sfuma così una distinzione marcata tra il reale e il virtuale, ma anzi si cerca di combinare in modo naturale la coesistenza di quest’ultimi, permettendo la creazione di interfacce utente semplici e intuitive anche per applicazioni complesse. Il proposito che la tesi vuole andare ad affrontare è proprio quello di indagare lo sviluppo di nuove applicazioni basate su questa tecnologia. Nel primo capitolo verrà analizzatala storia, i campi di applicazione, i device più importanti sui quali è implementata e le varie tecniche di Tracciamento. Nella seconda parte della tesi andremo a interessarci del sistema vero e proprio sul quale regge questa tecnologia. Quindi nel successivo capitolo vedremo esempi di architetture e di piattaforme che offrono questa realtà di sviluppo, soffermandoci su un particolare caso di studio: Metaio; di cui nel terzo e ultimo capitolo indagheremo framework, SDK e API messe a disposizione.
Resumo:
L'exchange bias, fenomeno legato allo spostamento del ciclo di isteresi lungo l'asse del campo magnetico, è osservato nei materiali ferromagnetici(FM)-antiferromagnetici(AFM) accoppiati per scambio. Il suo studio, soprattutto nelle nanostrutture, è interessante sia da un punto di vista fenomenologico sia per ragioni tecnologiche. In campo teorico, la riduzione delle dimensioni laterali nei sistemi FM-AFM può portare a sostanziali cambiamenti nell'entità dello spostamento del ciclo e nella coercitività. Da un punto di vista tecnologico, lo studio del fenomeno di exchange bias è incentivato dal grande sviluppo dello storage magnetico e della spintronica; le testine di lettura sono tipicamente composte da valvole di spin o strutture a giunzione tunnel, nelle quali i bistrati FM-AFM accoppiati per scambio costituiscono una parte essenziale. Inoltre, è stato recentemente dimostrato che le interazioni di scambio FM-AFM possono essere usate per migliorare la stabilità dei mezzi di registrazione magnetica. Questo lavoro di tesi riporta lo studio del fenomeno di exchange bias in film sottili di IrMn/NiFe ed in dots di uguale composizione ma con diverse dimensioni (1000, 500 e 300nm), allo scopo di comprendere come il confinamento spaziale influenzi il meccanismo di accoppiamento di scambio e la sua evoluzione magnetotermica. I campioni sono stati preparati mediante litografia a fascio di elettroni e dc-magnetron sputtering e caratterizzati strutturalmente attraverso tecniche di microscopia elettronica. Lo studio delle proprietà magnetiche è stato realizzato mediante magnetometria ad effetto Kerr magneto-ottico, tecnica molto efficace per indagini su film sottili e nanostrutture, di cui la tesi riporta un'ampia trattazione. Infine, i risultati sperimentali sono stati affiancati a simulazioni micromagnetiche, così da ottenere un quadro completo dell'effetto di exchange bias nel sistema IrMn/NiFe.
Resumo:
Dal 1936 al 1939 la Spagna dovette fare i conti con gli orrori di una guerra che aveva diviso in due il paese, sia ideologicamente che geograficamente, facendogli vivere una tragedia ancora oggi tangibile nel tessuto sociale e politico della penisola iberica. Questo conflitto, che aveva suscitato l’interesse di molti, raggiunse un livello tale di sperimentazione, sia in campo militare, sia in quello civile, da essere considerato un banco di prova per la seconda guerra mondiale. Il progetto di tesi, attraverso l’analisi e il sottotitolaggio di due documentari, uno anarchico e l’altro franchista, intende presentare una ricerca che ha come focus primario lo studio della propaganda cinematografica durante il periodo della guerra civile spagnola. Il cinema che, proprio negli anni Trenta, si era definitivamente affermato anche grazie all’introduzione del sonoro, fu presto considerato un potente mezzo di comunicazione divenendo un’arma di persuasione della quale, entrambi gli schieramenti con tempistiche diverse, si servirono per indottrinare la popolazione e giustificare la propria azione militare. Il cinema, pertanto, fu messo al servizio della guerra. Nel primo capitolo di questo elaborato verrà presentato il quadro storico di riferimento con la definizione delle cause, dell’evoluzione e delle ideologie in campo durante il conflitto. Il secondo capitolo si concentrerà sull’analisi dei due sistemi di propaganda, quella repubblicana e quella nazionalista, con un’attenzione principale nei confronti della propaganda cinematografica e delle sue diverse espressioni politiche nella penisola iberica. In questo capitolo si farà, inoltre, accenno alla produzione cinematografica internazionale riferita al conflitto spagnolo durante gli anni della guerra e in quelli immediatamente successivi. Infine, nel terzo e ultimo capitolo, si prenderanno in analisi i due documentari sottotitolati (“Los Aguiluchos de la FAI por tierras de Aragón, Reportaje nº1, Estampas de la revolución antifascista” e “La Liberación de Madrid”, con la presentazione dell’analisi tecnica e contenutistica degli stessi. Per concludere, verranno indicate le strategie traduttive impiegate durante la fase di traduzione e riportati esempi concreti ad esse riferite.
Resumo:
I sarcomi dei tessuti molli sono un gruppo eterogeneo di tumori maligni di origine mesenchimale che si sviluppa nel tessuto connettivo. Il controllo locale mediante escissione chirurgica con margini ampi associato alla radioterapia e chemioterapia è il trattamento di scelta. Negli ultimi anni le nuove scoperte in campo biologico e clinico hanno sottolineato che i diversi istotipi posso essere considerati come entità distinte con differente sensibilità alla chemioterapia pertanto questa deve essere somministrata come trattamento specifico basato sull’istologia. Tra Ottobre 2011 e Settembre 2014 sono stati inclusi nel protocollo di studio 49 pazienti con sarcomi dei tessuti molli di età media alla diagnosi 48 anni (range: 20 - 68 anni). I tumori primitivi più frequenti sono: liposarcoma mixoide, sarcoma pleomorfo indifferenziato, sarcoma sinoviale. Le sedi di insorgenza del tumore erano più frequentemente la coscia, il braccio e la gamba. 35 pazienti sono stati arruolati nel Braccio A e trattati con chemioterapia standard con epirubicina+ifosfamide, 14 sono stati arruolati nel Braccio B e trattati con chemioterapia basata sull’istotipo. I dati emersi da questo studio suggeriscono che le recidive locali sembrano essere correlate favorevolmente alla radioterapia ed ai margini chirurgici adeguati mentre la chemioterapia non sembra avere un ruolo sul controllo locale della malattia. Anche se l'uso di terapie mirate, che hanno profili di tossicità più favorevoli e sono quindi meglio tollerate rispetto ai farmaci citotossici è promettente, tali farmaci hanno prodotto finora risultati limitati. Apparentemente l’insieme delle terapie mirate non sembra funzionare meglio delle terapie standard, tuttavia esse devono essere esaminate per singolo istotipo e confrontate con il braccio di controllo. Sono necessari studi randomizzati controllati su ampie casistiche per valutare l’efficacia delle terapie mirate sui differenti istotipi di sarcomi dei tessuti molli. Inoltre, nuovi farmaci, nuove combinazioni e nuovi schemi posologici dovranno essere esaminati per ottimizzare la terapia.
Resumo:
Questa tesi si propone di offrire una visione approfondita della situazione del servizio di interpretazione giudiziaria nel Regno Unito. In particolare, alla luce della la Direttiva 2010/64/UE del Parlamento Europeo e del Consiglio sul diritto all'interpretazione e alla traduzione, analizza il fallimentare passaggio di gestione dei servizi di legal interpreting dal National Register of Public Service Interpreters (NRPSI) a Capita Translation and Interpreting (Capita TI). Il lavoro è strutturato in tre capitoli. Il primo tratta i contenuti della direttiva relativi all'ambito di indagine: l'istituzione di registri, la figura dell'interprete giudiziario suggerita e il ruolo degli Stati membri. Il secondo capitolo contiene invece l'analisi dei due sistemi: NRPSI, organizzazione no-profit, indipendente e volontaria, e Capita TI, azienda fornitrice di servizi linguistici. Si vedrà, nello specifico, come sono composte, come lavorano, come funzionano i loro registri, secondo quali criteri vengono selezionati gli interpreti e in che modo corrispondono alle direttive dell'Unione Europea. Nel terzo e ultimo capitolo, si presenta la situazione dell'interpretazione giudiziaria nel Regno Unito. Si ricostruiscono inizialmente le motivazioni che hanno portato il Ministero della Giustizia inglese ad appaltare a terzi la gestione del servizio di interpretazione giudiziaria, In seguito, si espongono le problematiche insorte sin dalla firma del contratto tra Capita TI e il Ministry of Justice e le conseguenti reazioni dei servizi pubblici coinvolti e degli interpreti che hanno deciso di boicottare la nuova disposizione. Dopo aver illustrato le misure che, nel 2013, Capita e l'MoJ si sono impegnati ad attuare per invertire la disastrosa tendenza iniziale, si vedrà infine in quale modo queste hanno influito sull'ancora irrisolta situazione attuale.
Resumo:
L'elaborato si propone di analizzare la fusione di due tecnologie diverse, ma allo stesso modo rivoluzionarie. Da un lato abbiamo la chirurgia robotica (Robotic Assisted Surgery), reputata ormai la nuova frontiera della chirurgia mini-invasiva, dall'altro invece l'eco-tomografia, che in molti ipotizzano poter divenire lo 'stetoscopio' del futuro.
Resumo:
Questo lavoro di tesi riassume le fasi di progettazione e realizzazione di un'applicazione per sistemi mobili multi-piattaforma, realizzata nell'ambito di un tirocinio aziendale.