998 resultados para Dinaimca dei meccanismi, Motori elettrici, Servomeccanismi, Macchine automatiche, Meccatronica
Resumo:
Studio del funzionamento in off - design dei due motori a combustione interna alimentati ad olio vegetale presenti all'interno dell'impianto cogenerativo a biomassa.
Resumo:
Le alterazioni della funzionalità mitocondriale detengono un ruolo cruciale nella patogenesi della malattia di Alzheimer (AD), sostenendo il processo neurodegenerativo attraverso meccanismi quali la riduzione della disponibilità energetica e la iperproduzione di ROS. Alle numerose ipotesi di patogenesi dell’AD, si è recentemente affiancata la cosiddetta ipotesi vascolare. Nei soggetti AD è stata riscontrata una significativa riduzione della disponibilità di ossigeno a livello neuronale (ipossia neuronale). Da numerosi studi è poi emerso che l’ipossia gioca un ruolo fondamentale nello sviluppo dell’AD contribuendo a più vie patogenetiche contemporaneamente. Tuttavia, non sono stati ancora chiariti tutti i meccanismi attraverso cui l’ipossia esplica la sua azione di danno. Lo scopo di questo studio è stato quello di contribuire a chiarire il ruolo patologico dell’ipossia nell’AD, analizzando principalmente le alterazioni della funzionalità mitocondriale indotte dalla riduzione della disponibilità di ossigeno. Nella prima fase dello studio cellule PC12 sono state coltivate in presenza di β-amiloide e ipossia. In questo modello abbiamo osservato un potenziamento dei fenomeni di deplezione dell’ATP e di generazione delle ROS indotti dalla Aβ quando anche l’ipossia era presente come fonte di danno cellulare, ipotizzando per i due fattori un effetto congiunto di tipo additivo. Nella seconda fase abbiamo esposto all’ipossia fibroblasti prelevati da pazienti AD portatori di mutazioni a carico dei geni APP e PSEN. La presenza di mutazioni predisponenti ad un fenotipo AD era in grado di determinare un danno bioenergetico e ossidativo. Le alterazioni bioenergetiche riscontrate in normossia risultavano ulteriormente potenziate quando i fibroblasti erano coltivati in ipossia, mentre lo stato di stress ossidativo veniva evidenziato solo in condizioni ipossiche. Sulla base dei risultati finora conseguiti si può ipotizzare che uno dei meccanismi attraverso cui l’ipossia esplica la sua azione di danno nella AD, possa essere dovuto alla capacità di potenziare ulteriormente le alterazioni della funzionalità mitocondriale.
Resumo:
Ormai da diversi anni vengono utilizzate tecnologie più o meno sofisticate in ambito riabilitativo, grazie alle conoscenze sviluppate nel campo della medicina riabilitativa e in altri ambiti tra i quali le neuroscienze, la neurofiiologia, la biomeccanica e l'imaging. La ricerca tecnologica più avanzata in questo settore coinvolge dispositivi robotici e realtà virtuale con lo scopo di arrivare ad ottenere tecniche sempre migliori. Questo approccio è anche la base di studi del movimento e l'interesse che si ha riguardo al modo in cui avvengono la pianificazione e l'esecuzione dell'atto motorio. Di particolare rilevanza sono i submovimenti, ovvero le frammentazioni che compongono un movimento continuo umano, i quali forniscono un'analisi compatta di codifica del moto e si rivelano i principali responsabili della caratteristica di smoothness delle traiettorie risultanti. Sotto l'ipotesi che esistano tali unità discrete, la capacità di isolarle e caratterizzarle accuratamente fornisce una descrizione dell'atto motorio, dunque un'analisi che può portare a nuove scoperte negli studi delle performance motorie, della riabilitazione e del sistema di controllo motorio nell'uomo. Il presente elaborato mostra una panoramica all'approccio dello studio del movimento e della sua decomposizione, partendo dal modo in cui viene generato e controllato all'interno del nostro organismo, fino alle tecniche computazionali sfruttate per modellare ciò che avviene nel sistema motorio. Il primo capitolo centra il problema nel suo contesto di utilizzo, ovvero quello della riabilitazione neuromotoria con la quale si cerca di sfruttare le tecniche più innovative per ottenere risultati più efficienti e soddisfacenti e sempre meno soggettivi. Il capitolo successivo fornisce la visione anatomo-fisiologica del problema, infatti si cerca di spiegare il funzionamento generale di produzione dei comandi motori a cui seguono la vera e propria attuazione e l'eventuale correzione; alla base di questo meccanismo sta anche la possibilità di rendere efficaci le suddette tecniche riabilitative. Sono, poi, introdotti i submovimenti e le conclusioni a cui si è arrivati nel corso degli anni grazie a varie ricerche di caratterizzazione della smoothness che mettono in relazione tale caratteristica con i submovimenti stessi. Nella terza parte si ha una visione d'insieme del modo in cui le tecnologie più recenti possono essere applicate nell'ambito di studio della tesi: la realtà virtuale, così come la robotica, giocano un ruolo fondamentale per la misurazione e la rilevazione della cinematica del corpo umano (nel caso specifico, la cinematica dell'arto superiore). Nel quarto capitolo vengono descritti alcuni modelli con cui si cerca di estrarre le proprietà del movimento per poterne comprendere al meglio la natura ed il modo in cui viene generato. Si conclude il lavoro spiegando come l'elaborato possa essere sfruttato quale base per costruire prove sperimentali e di come le tecniche presentate possano essere utilizzate in contesti ancora più innovativi.
Resumo:
I sistemi di intelligenza artificiale vengono spesso messi a confronto con gli aspetti biologici riguardanti il cervello umano. L’interesse per la modularità è in continua crescita, che sta portando a risultati davvero interessanti attraverso l’utilizzo di sistemi artificiali intelligenti, come le reti neuronali. Molte reti, sia biologiche sia artificiali sono organizzate in moduli, i quali rappresentano cluster densi di parti interconnesse fra loro all’interno di una rete complessa. Nel campo dell’ingegneria, si usano design modulari per spiegare come una macchina è costituita da parti separate. Lo studio della struttura e delle funzioni di organismi/processi complessi si basa implicitamente su un principio di organizzazione modulare, vale a dire si dà per acquisito il fatto che siano modulari, cioè composti da parti con forma e/o funzioni diverse. Questo elaborato si propone di esporre gli aspetti fondamentali riguardanti la modularità di reti neuronali, le sue origini evolutive, le condizioni necessarie o sufficienti che favoriscono l’emergere dei moduli e relativi vantaggi. Il primo capitolo fornisce alcune conoscenze di base che permettono di leggere gli esperimenti delle parti successive con consapevolezza teorica più profonda. Si descrivono reti neuronali artificiali come sistemi intelligenti ispirati alla struttura di reti neurali biologiche, soffermandosi in particolare sulla rete feed-forward, sull’algoritmo di backpropagation e su modelli di reti neurali modulari. Il secondo capitolo offre una visione delle origini evolutive della modularità e dei meccanismi evolutivi riguardanti sistemi biologici, una classificazione dei vati tipi di modularità, esplorando il concetto di modularità nell’ambito della psicologia cognitiva. Si analizzano i campi disciplinari a cui questa ricerca di modularità può portare vantaggi. Dal terzo capitolo che inizia a costituire il corpo centrale dell’elaborato, si dà importanza alla modularità nei sistemi computazionali, illustrando alcuni casi di studio e relativi metodi presenti in letteratura e fornendo anche una misura quantitativa della modularità. Si esaminano le varie possibilità di evoluzione della modularità: spontanea, da specializzazione, duplicazione, task-dependent, ecc. passando a emulare l’evoluzione di sistemi neurali modulari con applicazione al noto modello “What-Where” e a vari modelli con caratteristiche diverse. Si elencano i vantaggi che la modularità produce, soffermandosi sull’algoritmo di apprendimento, sugli ambienti che favoriscono l’evoluzione della modularità con una serie di confronti fra i vari tipi, statici e dinamici. In ultimo, come il vantaggio di avere connessioni corte possa portare a sviluppare modularità. L’obiettivo comune è l’emergere della modularità in sistemi neuronali artificiali, che sono usati per applicazioni in numerosi ambiti tecnologici.
Resumo:
L’idea di realizzare questo lavoro di ricerca sulla traduzione nell’ambito pubblicitario sorge da un interesse nell’analisi del linguaggio della pubblicità, sia nelle sue componenti psicologiche e persuasive che in quelle linguistiche. La pubblicità è oggi uno dei principali motori dell’economia, un canale di comunicazione diffuso in maniera sempre più capillare ed uno strumento estetico ed ideologico di massa, che condiziona il modo di guardare le cose in maniera decisiva. Con la globalizzazione e la necessità di esportare i prodotti di ogni paese a livello mondiale, ha assunto un’importanza fondamentale la traduzione degli annunci di promozione di questi prodotti finalizzata alla localizzazione dei messaggi pubblicitari, in contrasto alla tendenza alla globalizzazione linguistica. Questo lavoro si propone di analizzare proprio questo contrasto tra la necessità di adattare il testo al paese e alla cultura del destinatario e, d’altra parte, l’internazionalizzazione e standardizzazione dei messaggi, la situazione in cui questo contrasto sorge ed il modo in cui viene risolto. Partendo dalla descrizione delle origini del termine “pubblicità” nel tentativo di definirne il concetto, passando attraverso la descrizione dei suoi obiettivi e funzioni e descrivendo il processo persuasivo ed i diversi modi in cui la pubblicità può essere classificata, vengono spiegate le strategie traduttive del messaggio pubblicitario, le situazioni particolari in cui tali strategie sono applicate ed i loro fini. Vengono descritte le tecniche di traduzione applicate al nome del marchio, il modo in cui i riferimenti culturali presenti nell’annuncio vengono adattati ai diversi paesi e le tecniche traduttive adattate al mezzo di comunicazione e ai vari recettori. In seguito si descrive l’importanza della forza appellativa ed espressiva di ogni testo e della struttura testuale nella traduzione degli annunci e il modo in cui vengono adattati gli elementi grafici e la grafia durante la traduzione, terminando con alcuni esempi concreti di errori di traduzione di annunci pubblicitari.
Resumo:
La labioschisi con o senza palatoschisi non-sindromica (NSCL/P) è tra le più frequenti alterazioni dello sviluppo embrionale, causata dall’interazione di fattori genetici e ambientali, moti dei quali ancora ignoti. L'obiettivo del mio progetto di Dottorato consiste nell’identificazione di fattori di rischio genetico in un processo a due stadi che prevede la selezione di geni candidati e la verifica del loro coinvolgimento nella determinazione della malformazione mediante studi di associazione. Ho analizzato alcuni polimorfismi a singolo nucleotide (SNPs) dei geni RFC1 e DHFR, appartenenti alla via metabolica dell’acido folico, evidenziando una debole associazione tra alcuni degli SNPs indagati e la NSCL/P nella popolazione italiana. Presso il laboratorio della Dott.ssa Mangold dell’Università di Bonn, ho valutato il ruolo di 15 diverse regioni cromosomiche nel determinare la suscettibilità alla malattia, evidenziando una significativa associazione per i marcatori localizzati in 8q24 e 1p22. Ho quindi rivolto la mia attenzione al ruolo del complesso Polycomb nell’insorgenza della schisi. Nell’uomo i due complessi Polycomb, PRC1 e PRC2, rimodellano la cromatina agendo da regolatori dei meccanismi trascrizionali alla base della differenziazione cellulare e dello sviluppo embrionale. Ho ipotizzato che mutazioni a carico di geni appartenenti a PRC2 possano essere considerati potenziali fattori di rischio genetico nel determinare la NSCL/P. Il razionale consiste nel fatto che JARID2, una proteina che interagisce con PRC2, è associata all’insorgenza della NSCL/P ed espressa a livello delle cellule epiteliali delle lamine palatine che si approssimano alla fusione. L’indagine condotta analizzando i geni di elementi o partner dei due complessi Polycomb, ha evidenziato un’associazione significativa con alcuni polimorfismi dei geni indagati, associazione ulteriormente confermata dall’analisi degli aplotipi. Le analisi condotte sui geni candidati mi hanno permesso di raccogliere dati interessanti sull’eziologia della malformazione. Studi indipendenti saranno necessari per poter validare l'associazione tra le varianti genetiche di questi geni candidati e la NSCL/P.
Resumo:
L'oggetto di studio di questa tesi e' l'analisi degli ammassi di galassie (galaxy clusters) e delle loro proprieta', attraverso un introduttiva analisi morfologica e dinamica, considerazioni sulle proprieta' termiche (con caratteristiche collegate direttamente dalla temperatura), ed infine l'ispezione dei meccanismi che generano le emissioni non termiche e le loro sorgenti. Cercheremo delle relazioni fra le une e le altre. In particolare studieremo specifiche conformazioni del mezzo intergalattico (ICM, intracluster medium) all'interno degli ammassi, quali Aloni, Relitti e Mini Aloni, attraverso le radiazioni che essi sprigionano nella banda dei raggi X e onde radio. Le prime osservazioni sugli ammassi di galassie sono state effettuate gia' alla fine del '700 da Charles Messier, che, al fine di esaminare il cielo alla ricerca di comete, forni un catalogo di 110 oggetti cosmici che, pur apparendo nebulosi per via della limitatezza di risoluzione dei telescopi di allora, non erano sicuramente comete. Fra questi oggetti vi erano anche ammassi di galassie. I primi studi approfonditi si ebbero soltanto con il rapido incremento tecnologico del XX secolo che permise di capire che quelle formazioni confuse altro non erano che agglomerati di galassie. Telescopi piu' grandi, e poi interferometri, radiotelescopi osservazioni agli X hanno sostanzialmente aperto il mondo dell'astrofisica. In particolare Abell stabili' nel primo dopoguerra il primo catalogo di ammassi su determinazione morfologica. Altri astronomi ampliarono poi i parametri di classificazione basandosi su caratteristiche ottiche e meccaniche. Le analisi piu' recenti infine basano le loro conclusioni sullo studio delle bande non ottiche dello spettro, principalmente i raggi X e onde Radio.
Resumo:
Il lavoro di ricerca è rivolto ad indagare l’emersione di schemi di variazione comuni all’arte e al design, limitatamente al contesto italiano e in un arco di tempo che va dalla metà degli anni Sessanta del secolo scorso a oggi. L’analisi vuole rintracciare, mediante l’applicazione della metodologia fenomenologica, un sentire condiviso tra le due discipline e, nel pieno rispetto dei relativi linguaggi e con nessuna volontà di sudditanza degli uni rispetto agli altri, individuare i rapporti di corrispondenza omologica capaci di mettere in luce lo spirito del tempo che le ha generate. La ricerca si pone l’obiettivo di estendere gli studi sul contemporaneo attraverso un’impostazione che intende applicare gli strumenti metodologici della critica d’arte all’evoluzione stilistica delle tendenze del design italiano. Non si è voluto redigere una “storia” del design italiano ma, considerata anche l’ampiezza dell’argomento, si è necessariamente proceduto a delimitare il territorio di applicazione scegliendo di prendere in considerazione il solo settore del design dell’arredo. Si è dunque optato per una visione globale delle vicende del design del prodotto, tesa ad indagare gli snodi principali, concentrando pertanto l’analisi su alcuni protagonisti della cultura del progetto, ossia su quelle figure risultate dominanti nel proprio tempo perché capaci con il loro lavoro di dare un contribuito determinante alla comprensione delle fasi evolutive del design italiano. Gli strumenti utili a condurre l’analisi provengono principalmente dalla metodologia binaria individuata dallo storico dell’arte Heinrich Wölfflin e dagli studi di Renato Barilli, il cui impianto culturologico ha fornito un indispensabile contributo al processo di sistematizzazione dei meccanismi di variazione interni alle arti; sia quelli di tipo orizzontale, di convergenza reciproca con gli altri saperi, che di tipo verticale, in rapporto cioè con le scoperte scientifiche e tecnologiche della coeva cultura materiale.
Resumo:
a. Introduzione: il capitolo introduttivo tratta il background del lavoro in generale. In esso vengono illustrati inoltre gli scopi e gli obiettivi e la struttura dell’elaborato. b. Framework teorici: Strategicità fornitori e SM Il primo passo nella progettazione di questo elaborato di tesi è stato quello di sviluppare una ricerca nella letteratura della SCM. Secondo Strauss e Corbin (2008) “la domanda iniziale di uno studio qualitativo è spesso ampia ed aperta”. Un modo per sviluppare domande di ricerca è quello si esaminare la letteratura. Viene trattata la strategicità della funzione approvvigionamenti nel Supply Chain Management ed il notevole impatto dei fornitori sulle prestazioni aziendali. c. Supplier Base Reduction: Modello Concettuale. Viene proposto un modello concettuale che si base sulla strategicità della SBR intesa come una strategia di gestione del parco fornitori grazie ai suoi metodi di standardization, elimination e tiering. Tale modello evidenzia l’importanza di eseguirla in contemporanea ad altri metodi, strumenti e strategie molto rilevanti, quali: purchasing strategy, spend analysis per classe merceologica di acquisto, purchasing performance meausurement tramite appositi KPI (i più rilevanti sono lead time e qualità), valutazione e segmentazione del parco fornitori. In tal modo sarà immediato individuare i fornitori critici da eliminare e quelli più performanti con cui stabilire dei rapporti di partnership e di fornitura integrata. d. Case Study: Bonfiglioli Riduttori Dopo un excursus sulla struttura aziendale di Bonfiglioli Riduttori, le sue Business Unit, le diverse filiali ed i suoi principali prodotti, viene riportata una breve analisi dell’intera supply chain. Successivamente viene trattata la necessità di aumentare le performance aziendali (date le stringenti richieste di mercato in termini di qualità e puntualità nelle consegne) e di non perdere la competitività acquisita precedentemente. Inoltre si enfatizza l’importanza della funzione approvvigionamenti nel raggiungimento degli obiettivi aziendali. e. Applicazione del modello concettuale al caso Dal modello concettuale si hanno gli input per definire il piano esecutivo del caso di studio in esame. Verranno trattati: analisi di Pareto per categoria merceologica, monitoraggio KPI per fornitore e categoria merceologica (con relativa griglia di misurazione delle performance globale), segmentazione fornitori per categoria tramite Commodity Pyramids, attuazione di azioni correttive generiche (quali le tecniche SBR e la partnership con i fornitori più performanti) e puntuali (quality improvement, ridefinizione dei piani di consegna, condivisione della programmazione, applicazione di bonus o penalità). f. Risultati ottenuti ed attesi Dopo aver riportato i risultati di alcuni esempi di macrocategorie merceologiche d’acquisto, si analizzano i risultati globali della razionalizzazione del parco fornitori e dell’implementazione di rapporti di partnership con annessi i relativi benefici per le performance dell’organizzazione. Si propone inoltre una revisione dei meccanismi di selezione dei fornitori tramite l’ideazione di un nuovo modello di vendor rating che rispetti i target prefissati.
Resumo:
In questa tesi, utilizzando le particolari proprietà del polimero conduttivo poli(3,4-etilenediossitiofene) drogato con polistirene sulfonato , o PEDOT:PSS, sono stati realizzati dei transistor elettrochimici organici (OECTs), in cui il gate e canale source-drain sono stati realizzati depositando su substrato di vetro film sottili di questo polimero. I dispositivi realizzati sono stati caratterizzati, per comprenderne meglio le funzionalità e le proprietà per possibili applicazioni future, in particolare come sensori di glucosio. Il PEDOT:PSS è uno dei materiali più studiati per applicazioni della bioelettronica in virtù della sua grande stabilità chimica e termica, della reversibilità del suo processo di drogaggio, della grande conducibilità e delle sue proprietà elettrochimiche, nonché della sua attività in un vasto range di pH. Vengono trattate nell’elaborato anche le tecniche di deposizione di questo polimero per la creazione di film sottili, necessari per le varie applicazioni nell’ambito della bioelettronica organica, la quale si propone di unire la biologia e l’elettronica in un mutuale scambio di informazioni e segnali. Questa interazione si sta verificando soprattutto nel campo sanitario, come si può evincere dagli esempi riportati nella trattazione. Si conclude la parte teorica con una descrizione degli OECTs: viene spiegata la loro struttura, la capacità di connettere conducibilità ionica ed elettronica e il loro funzionamento, inserendo anche un confronto con i FET (“Field Effect Transistor”), per agevolare la comprensione dei meccanismi presenti in questi strumenti. Per la parte sperimentale si presenta invece una descrizione dettagliata dei procedimenti, degli strumenti e degli accorgimenti usati nel fabbricare i transistor sui quali si è lavorato in laboratorio, riportando anche una piccola esposizione sulle principali misure effettuate: curve caratterische I–V, transcaratteristiche e misure di corrente nel tempo sono le principali acquisizioni fatte per studiare i dispositivi. E’ stata studiata la diversa risposta degli OECTs al variare della concentrazione di PBS in soluzione, mostrando un generale rallentamento dei processi e una diminuzione della capacità di modificare la corrente source-drain al calare della concentrazione. In seguito, è stato effettuato un confronto tra transistor appena fatti e gli stessi analizzati dopo un mese, osservando una riduzione della corrente e quindi della conducibilità, seppur senza una modifica qualitativa delle curve caratteristiche (che mantengono il loro andamento). Per quanto riguarda la possibilità di usare questi dispositivi come sensori di glucosio, si introduce uno studio preliminare sulla risposta di un transistor, il cui gate è stato funzionalizzato con ferrocene, alla presenza di glucosio e glucosio ossidasi, un enzima necessario al trasferimento di elettroni, nella soluzione elettrolitica, seppur con qualche difficoltà, per via della mancanza di informazioni sui parametri da utilizzare e il range in cui compiere le misure (tuttora oggetto di ricerca).
Resumo:
Anche se la politica editoriale comunista rappresenta un campo di indagine fondamentale nella ricerca sul Pci, la sua attività editoriale è caduta in un oblio storico. Assumendo il libro come supporto materiale e veicolo della cultura politica comunista, e la casa editrice come canale di socializzazione, questa ricerca s’interroga sui suoi processi di costruzione e di diffusione. La ricerca si muove in due direzioni. Nel primo capitolo si è tentato di dare conto delle ragioni metodologiche dell’indagine e della messa a punto delle ipotesi di ricerca sul “partito editore”, raccogliendo alcune sfide poste alla storia politica da altri ambiti disciplinari, come la sociologia e la scienza politica, che rappresentano una vena feconda per la nostra indagine. La seconda direzione, empirica, ha riguardato la ricognizione delle fonti e degli strumenti di analisi per ricostruire le vicende del “partito editore” dal 1944 al 1956. La suddivisione della ricerca in due parti – 1944-1947 e 1947-1956 – segue a grandi linee la periodizzazione classica individuata dalla storiografia sulla politica culturale del Pci, ed è costruita su quattro fratture storiche – il 1944, con la “svolta di Salerno”; il 1947, con la “svolta cominformista”; il 1953, con la morte di Stalin e il disgelo; il 1956, con il XX Congresso e i fatti d’Ungheria – che sono risultate significative anche per la nostra ricerca sull’editoria comunista. Infine, il presente lavoro si basa su tre livelli di analisi: l’individuazione dei meccanismi di decisione politica e dell’organizzazione assunta dall’editoria comunista, esaminando gli scopi e i mutamenti organizzativi interni al partito per capire come i mutamenti strategici e tattici si sono riflessi sull’attività editoriale; la ricostruzione della produzione editoriale comunista; infine, l’identificazione dei processi di distribuzione e delle politiche per la lettura promosse dal Pci.
Resumo:
Un'interfaccia cervello-computer (BCI: Brain-Computer Interface) è un sistema di comunicazione diretto tra il cervello e un dispositivo esterno che non dipende dalle normali vie di output del cervello, costituite da nervi o muscoli periferici. Il segnale generato dall'utente viene acquisito per mezzo di appositi sensori, poi viene processato e classificato estraendone così le informazioni di interesse che verranno poi utilizzate per produrre un output reinviato all'utente come feedback. La tecnologia BCI trova interessanti applicazioni nel campo biomedico dove può essere di grande aiuto a persone soggette da paralisi, ma non sono da escludere altri utilizzi. Questa tesi in particolare si concentra sulle componenti hardware di una interfaccia cervello-computer analizzando i pregi e i difetti delle varie possibilità: in particolar modo sulla scelta dell'apparecchiatura per il rilevamento della attività cerebrale e dei meccanismi con cui gli utilizzatori della BCI possono interagire con l'ambiente circostante (i cosiddetti attuatori). Le scelte saranno effettuate tenendo in considerazione le necessità degli utilizzatori in modo da ridurre i costi e i rischi aumentando il numero di utenti che potranno effettivamente beneficiare dell'uso di una interfaccia cervello-computer.
Resumo:
Tesi sulla progettazione meccanica e il calcolo strutturale FEM di un sistema di afferraggio facente parte di una macchina automanica nel campo del packaging.
Resumo:
Questo progetto ha confrontato gli effetti indotti da diversi tipi di radiazioni, diversa intensità delle dosi, diverso rateo di dose su sistemi cellulari differenti. In particolare sono stati seguiti due studi differenti, finalizzati all’indagine degli effetti e dei meccanismi indotti da trattamenti radioterapici su cellule in coltura. Nel primo studio -EXCALIBUR- sono stati investigati i meccanismi di induzione e trasmissione del danno a basse dosi di radiazioni, in funzione della qualità della radiazione (raggi gamma e protoni) e della dose. Cellule di glioblastoma umano (T98G) sono state irraggiate con raggi gamma e protoni a due diverse dosi (0,25 Gy e 2 Gy); in questo studio è stata valutata e analizzata la variazione di espressione genica rilevata utilizzando la tecnologia dei microarray. Per mezzo dell’analisi statistica, con due software diversi, si è osservato come nelle cellule irraggiate si attivino i geni legati alla senescenza cellulare; questo risultato è significativo, visto che potrebbe rappresentare una prospettiva terapeutica interessante per molte neoplasie. Il secondo studio –Plasma Focus- ha lo scopo di ampliare le applicazioni nel settore medicale di una sorgente radiante che produce raggi X ad altissimo rateo di dose (plasma focus). In questo studio, l’attenzione è stata posta sulla preparazione dei campioni biologici per l’irraggiamento. Cellule di adenocarcinoma mammario (MCF7) sono state coltivate in laboratorio e posizionate all’interno di appositi portacampioni pronte per essere irraggiate con raggi X ad alto e a basso rateo di dose. Per mezzo della microscopia ottica e della citometria a flusso in fluorescenza, si è osservato come un rateo di dose elevato provochi danni cellulari superiori. L’analisi quantitativa ha mostrato che, nelle cellule trattate con il plasma focus, il 18% risulti danneggiato rispetto al 7% delle cellule di controllo; con i raggi X convenzionali risulta danneggiato l'8% di cellule, rispetto al 3% delle cellule di controllo.
Resumo:
Questa tesi di laurea nasce dall’esperienza maturata presso l’azienda FCA Italy (Fiat Chrysler Automobiles S.p.A., ex VM Motori) nello stabilimento situato a Cento in provincia di Ferrara, in particolare all’interno dell’ufficio di Ricerca Avanzata CRM (Centro Ricerca Motori), divisione del reparto R&D (Research and Development). Tale esperienza viene riassunta (in piccola parte) in questo elaborato di Tesi, che tratta tematiche inerenti allo sviluppo di un sistema di sovralimentazione assistito elettricamente, applicato ad un propulsore Diesel 3.0L V6 destinato ai segmenti “Premium” del mercato. Il sistema utilizzato, che ha come componente principale un compressore attuato da una macchina elettrica, appartiene all’insieme delle tecnologie cosiddette di e-boosting. Questo tipo di tecnologia, fortemente innovativa e ad oggi non ancora presente sul mercato, ha le potenzialità per rappresentare un significativo passo avanti nel processo di riduzione delle emissioni, dei consumi e del miglioramento delle performance dei moderni motori endotermici alternativi, al punto che un numero crescente di costruttori di motori sta oggi studiando soluzioni come quella oggetto di questo elaborato. L’obiettivo è stato quindi quello di definire, applicare e gestire il sistema di e-boost a banco motore e, successivamente, caratterizzarlo dal punto di vista energetico e testarne le effettive potenzialità. Le fasi in cui ho apportato il mio contributo sono state, in particolare, quelle di definizione e integrazione dei nuovi componenti all’interno del layout motore preesistente, di realizzazione e implementazione delle strategie di controllo in un sistema dedicato in grado di gestire efficacemente i componenti, e di sperimentazione al banco prova. I risultati conseguiti al termine dell’attività sono quindi inerenti allo sviluppo e validazione del sistema di controllo, alla valutazione delle performance del propulsore risultante e alla caratterizzazione e analisi critica del sistema di e-boost dal punto di vista energetico.