398 resultados para diffusione anelastica, Compton, apparato sperimentale
Resumo:
In the era of monoclonal antibodies the role of autologous stem cell transplantation (ASCT) in the management of follicular lymphoma (FL) is still debated. To evaluate the safety and efficacy of myeloablative therapy with rescue of purged or unpurged harvests in FL pts. At our institution form 1997 to 2007 28 pts with refractory/resistant FL were eligible for ASCT. Before high dose therapy they received 2-3 cycles of CHOP-like regimen (ACOD), followed by Cyclophosphamide 4g/mq to mobilize the stem cells (SC). After SC collection the pts underwent 3 cycles of subcutaneous Cladribine at a daily dose of 0,14-0,10 mg/Kg for Day 1-5 every 3-4 weeks. The conditioning regimen was based on Mitoxantrone 60mg/mq + Melphalan 180 mg/mq, followed by SC re-infusion 24-hours later and G-CSF starting 24 hours after re-infusion. In 19 pts the SC underwent purging: in 10 harvests the CD34+ were selected by immunomagnetic beads, while in the other 9 pts, only Rituximab was used as “purging in vivo” agent. The remaining 9 pts received unpurged SC. Before ASCT 11 pts were in complete response (CR), 9 in partial response (PR) and 2 in stable disease. Two pts were not eligible for ASCT because of progressive disease (PD). The remaining 25 pts were eligible for ASCT. The engraftment was at a median of 11 days for leucocytes and 14 days for platelets (>20.000/mmc), with a delay of one day in the pts, who received purged SC. Grade 3-4 mucositis was described in 8 pts. During aplasia a 48% infection rate was reported, without differences between pts with purged or unpurged SC. One patient in CR presented myelodysplastic syndrome at 18 months from ASCT. After ASCT 22 pts were in CR, 2 in PR and one patient were not valuable, because died before response assessment. Nine pts in CR showed PD at a median time of 14 months from ASCT. With a median follow up of 5 years (range 2 months -10 years), 22 pts are alive and 11 (44%) in CR. Ten pts died, 5 for progressive disease and 5 for treatment-related causes; in particular 7 of them received in-vitro purged SC. Conclusions: Our chemotherapy regimen, which included the purine analogue Cladribine in the induction phase, seems safe and feasible. The high rate of CR reported and the sustained freedom from progression up to now, makes such modality of treatment a valid option principally in relapsing FL patients. In our experience, the addition of a monoclonal antibody as part of treatment confirms its role “in vivo purging” without observing an increased incidence of infection.
Resumo:
L’argomento della presente tesi di dottorato riguarda lo studio clinico del trapianto di cellule staminali emopoietiche aploidentiche nelle patologie oncoematologiche. Nel periodo di tempo compreso tra 1/12/2005 ed il 30/10/2007 sono stati arruolati 10 pazienti (6 LAM, 3 LAL, 1 LMC in crisi blastica mieloide) nell’ambito di uno studio clinico che prevedeva il trapianto di midollo osseo aploidentico per pazienti affetti da patologia oncoematologica in prima o successiva recidiva, per i quali non fosse disponibile un donatore di midollo osseo consanguineo o da banca. Lo schema di condizionamento al trapianto di midollo osseo utilizzato era il seguente: Fludarabina 150/m2, Busulfano orale 14mg/kg, Tiothepa 10mg/kg e Ciclofosfamide 160mg/kg. Per la profilassi della malattia da trapianto contro l’ospite è stata somministrata timoglobulina antilinfocitaria (ATG) al dosaggio complessivo di 12.5 mg/kg, short course metotrexate (+1, +3 e +11), cortisone e ciclosporina con tapering precoce al + 60. I pazienti hanno reinfuso una megadose di cellule CD34+ mediana pari a 12.8x106/kg. Tre pazienti non sono valutabili per l’attecchimento a causa di rigetto (1/3) o morte precoce (2/3). Sette pazienti sono valutabili per l’attecchimento; per questi pazienti il tempo mediano a 500 PMN/mmc e a 20 x 109/l piastrine è stato rispettivamente di 17 e 20 giorni. Quattro pazienti su 7 hanno svillupato una Graft versus Host Disease (GVHD) acuta di grado II-IV, mentre soltanto 1/7 ha sviluppato una GVHD cronica. Sette pazienti su 10 trapiantati hanno ottenuto una remissione completa successivamente al trapianto. Di questi, attualmente 2 pazienti sono vivi in remissione completa, mentre gli altri 5 sono ricaduti e successivamente deceduti. In conclusione, il trapianto aploidentico è una procedura fattibile ed efficace. Tale procedura è in grado di garantire un 20% di lungo sopravviventi in un setting di pazienti a prognosi estremamente infausta.
Resumo:
L’ermeneutica filosofica di Hans-Georg Gadamer – indubbiamente uno dei capisaldi del pensiero novecentesco – rappresenta una filosofia molto composita, sfaccettata e articolata, per così dire formata da una molteplicità di dimensioni diverse che si intrecciano l’una con l’altra. Ciò risulta evidente già da un semplice sguardo alla composizione interna della sua opera principale, Wahrheit und Methode (1960), nella quale si presenta una teoria del comprendere che prende in esame tre differenti dimensioni dell’esperienza umana – arte, storia e linguaggio – ovviamente concepite come fondamentalmente correlate tra loro. Ma questo quadro d’insieme si complica notevolmente non appena si prendano in esame perlomeno alcuni dei numerosi contributi che Gadamer ha scritto e pubblicato prima e dopo il suo opus magnum: contributi che testimoniano l’importante presenza nel suo pensiero di altre tematiche. Di tale complessità, però, non sempre gli interpreti di Gadamer hanno tenuto pienamente conto, visto che una gran parte dei contributi esegetici sul suo pensiero risultano essenzialmente incentrati sul capolavoro del 1960 (ed in particolare sui problemi della legittimazione delle Geisteswissenschaften), dedicando invece minore attenzione agli altri percorsi che egli ha seguito e, in particolare, alla dimensione propriamente etica e politica della sua filosofia ermeneutica. Inoltre, mi sembra che non sempre si sia prestata la giusta attenzione alla fondamentale unitarietà – da non confondere con una presunta “sistematicità”, da Gadamer esplicitamente respinta – che a dispetto dell’indubbia molteplicità ed eterogeneità del pensiero gadameriano comunque vige al suo interno. La mia tesi, dunque, è che estetica e scienze umane, filosofia del linguaggio e filosofia morale, dialogo con i Greci e confronto critico col pensiero moderno, considerazioni su problematiche antropologiche e riflessioni sulla nostra attualità sociopolitica e tecnoscientifica, rappresentino le diverse dimensioni di un solo pensiero, le quali in qualche modo vengono a convergere verso un unico centro. Un centro “unificante” che, a mio avviso, va individuato in quello che potremmo chiamare il disagio della modernità. In altre parole, mi sembra cioè che tutta la riflessione filosofica di Gadamer, in fondo, scaturisca dalla presa d’atto di una situazione di crisi o disagio nella quale si troverebbero oggi il nostro mondo e la nostra civiltà. Una crisi che, data la sua profondità e complessità, si è per così dire “ramificata” in molteplici direzioni, andando ad investire svariati ambiti dell’esistenza umana. Ambiti che pertanto vengono analizzati e indagati da Gadamer con occhio critico, cercando di far emergere i principali nodi problematici e, alla luce di ciò, di avanzare proposte alternative, rimedi, “correttivi” e possibili soluzioni. A partire da una tale comprensione di fondo, la mia ricerca si articola allora in tre grandi sezioni dedicate rispettivamente alla pars destruens dell’ermeneutica gadameriana (prima e seconda sezione) ed alla sua pars costruens (terza sezione). Nella prima sezione – intitolata Una fenomenologia della modernità: i molteplici sintomi della crisi – dopo aver evidenziato come buona parte della filosofia del Novecento sia stata dominata dall’idea di una crisi in cui verserebbe attualmente la civiltà occidentale, e come anche l’ermeneutica di Gadamer possa essere fatta rientrare in questo discorso filosofico di fondo, cerco di illustrare uno per volta quelli che, agli occhi del filosofo di Verità e metodo, rappresentano i principali sintomi della crisi attuale. Tali sintomi includono: le patologie socioeconomiche del nostro mondo “amministrato” e burocratizzato; l’indiscriminata espansione planetaria dello stile di vita occidentale a danno di altre culture; la crisi dei valori e delle certezze, con la concomitante diffusione di relativismo, scetticismo e nichilismo; la crescente incapacità a relazionarsi in maniera adeguata e significativa all’arte, alla poesia e alla cultura, sempre più degradate a mero entertainment; infine, le problematiche legate alla diffusione di armi di distruzione di massa, alla concreta possibilità di una catastrofe ecologica ed alle inquietanti prospettive dischiuse da alcune recenti scoperte scientifiche (soprattutto nell’ambito della genetica). Una volta delineato il profilo generale che Gadamer fornisce della nostra epoca, nella seconda sezione – intitolata Una diagnosi del disagio della modernità: il dilagare della razionalità strumentale tecnico-scientifica – cerco di mostrare come alla base di tutti questi fenomeni egli scorga fondamentalmente un’unica radice, coincidente peraltro a suo giudizio con l’origine stessa della modernità. Ossia, la nascita della scienza moderna ed il suo intrinseco legame con la tecnica e con una specifica forma di razionalità che Gadamer – facendo evidentemente riferimento a categorie interpretative elaborate da Max Weber, Martin Heidegger e dalla Scuola di Francoforte – definisce anche «razionalità strumentale» o «pensiero calcolante». A partire da una tale visione di fondo, cerco quindi di fornire un’analisi della concezione gadameriana della tecnoscienza, evidenziando al contempo alcuni aspetti, e cioè: primo, come l’ermeneutica filosofica di Gadamer non vada interpretata come una filosofia unilateralmente antiscientifica, bensì piuttosto come una filosofia antiscientista (il che naturalmente è qualcosa di ben diverso); secondo, come la sua ricostruzione della crisi della modernità non sfoci mai in una critica “totalizzante” della ragione, né in una filosofia della storia pessimistico-negativa incentrata sull’idea di un corso ineluttabile degli eventi guidato da una razionalità “irrazionale” e contaminata dalla brama di potere e di dominio; terzo, infine, come la filosofia di Gadamer – a dispetto delle inveterate interpretazioni che sono solite scorgervi un pensiero tradizionalista, autoritario e radicalmente anti-illuminista – non intenda affatto respingere l’illuminismo scientifico moderno tout court, né rinnegarne le più importanti conquiste, ma più semplicemente “correggerne” alcune tendenze e recuperare una nozione più ampia e comprensiva di ragione, in grado di render conto anche di quegli aspetti dell’esperienza umana che, agli occhi di una razionalità “limitata” come quella scientista, non possono che apparire come meri residui di irrazionalità. Dopo aver così esaminato nelle prime due sezioni quella che possiamo definire la pars destruens della filosofia di Gadamer, nella terza ed ultima sezione – intitolata Una terapia per la crisi della modernità: la riscoperta dell’esperienza e del sapere pratico – passo quindi ad esaminare la sua pars costruens, consistente a mio giudizio in un recupero critico di quello che egli chiama «un altro tipo di sapere». Ossia, in un tentativo di riabilitazione di tutte quelle forme pre- ed extra-scientifiche di sapere e di esperienza che Gadamer considera costitutive della «dimensione ermeneutica» dell’esistenza umana. La mia analisi della concezione gadameriana del Verstehen e dell’Erfahrung – in quanto forme di un «sapere pratico (praktisches Wissen)» differente in linea di principio da quello teorico e tecnico – conduce quindi ad un’interpretazione complessiva dell’ermeneutica filosofica come vera e propria filosofia pratica. Cioè, come uno sforzo di chiarificazione filosofica di quel sapere prescientifico, intersoggettivo e “di senso comune” effettivamente vigente nella sfera della nostra Lebenswelt e della nostra esistenza pratica. Ciò, infine, conduce anche inevitabilmente ad un’accentuazione dei risvolti etico-politici dell’ermeneutica di Gadamer. In particolare, cerco di esaminare la concezione gadameriana dell’etica – tenendo conto dei suoi rapporti con le dottrine morali di Platone, Aristotele, Kant e Hegel – e di delineare alla fine un profilo della sua ermeneutica filosofica come filosofia del dialogo, della solidarietà e della libertà.
Resumo:
This thesis is mainly about the search for exotic heavy particles -Intermediate Mass Magnetic Monopoles, Nuclearites and Q-balls with the SLIM experiment at the Chacaltaya High Altitude Laboratory (5230 m, Bolivia), establishing upper limits (90% CL) in the absence of candidates, which are among the best if not the only one for all three kind of particles. A preliminary study of the background induced by cosmic neutron in CR39 at the SLIM site, using Monte Carlo simulations. The measurement of the elemental abundance of the primary cosmic ray with the CAKE experiment on board of a stratospherical balloon; the charge distribution obtained spans in the range 5≤Z≤31. Both experiments were based on the use of plastic Nuclear Track Detectors, which records the passage of ionizing particles; by using some chemical reagents such passage can be make visible at optical microscopes.
Resumo:
This thesis comes after a strong contribution on the realization of the CMS computing system, which can be seen as a relevant part of the experiment itself. A physics analysis completes the road from Monte Carlo production and analysis tools realization to the final physics study which is the actual goal of the experiment. The topic of physics work of this thesis is the study of tt events fully hadronic decay in the CMS experiment. A multi-jet trigger has been provided to fix a reasonable starting point, reducing the multi-jet sample to the nominal trigger rate. An offline selection has been provided to reduce the S/B ratio. The b-tag is applied to provide a further S/B improvement. The selection is applied to the background sample and to the samples generated at different top quark masses. The top quark mass candidate is reconstructed for all those samples using a kinematic fitter. The resulting distributions are used to build p.d.f.’s, interpolating them with a continuous arbitrary curve. These curves are used to perform the top mass measurement through a likelihood comparison
Resumo:
In the present study we are using multi variate analysis techniques to discriminate signal from background in the fully hadronic decay channel of ttbar events. We give a brief introduction to the role of the Top quark in the standard model and a general description of the CMS Experiment at LHC. We have used the CMS experiment computing and software infrastructure to generate and prepare the data samples used in this analysis. We tested the performance of three different classifiers applied to our data samples and used the selection obtained with the Multi Layer Perceptron classifier to give an estimation of the statistical and systematical uncertainty on the cross section measurement.
Valutazione in opera ed in laboratorio della trasmissione laterale nelle tipologie edilizie italiane
Resumo:
L’attività di ricerca del dottorando è stata rivolta allo studio della trasmissione del rumore per via strutturale negli edifici. Questo argomento e' di notevole interesse sia fondamentale che applicativo. Il fenomeno e le problematiche ad essa connesse contribuiscono alla diminuzione delle prestazioni fonoisolanti, sia per le strutture verticali (usualmente valutate rispetto al rumore aereo), sia per quelle orizzontali (valutate anche rispetto al rumore impattivo) ed è tipico degli edifici con struttura portante a telaio e tamponatura in laterizi. Si tratta delle tipiche tipologie edilizie italiane, per le quali il problema risulta amplificato rispetto ad altre tipologie. La metodologia di studio è stata di tipo sperimentale. La scelta è dettata sia dall’insufficiente avanzamento dello stato dell’arte dei metodi di calcolo teorici, o delle loro versioni numeriche, sia dalla necessità di disporre di dati certi da confrontare con i valori forniti dai metodi previsionali semplificati indicati nelle norme UNI (modello CEN); infatti queste ultime sono un recepimento letterale di quelle europee, sebbene esse si basino su tipologie costruttive, materiali e tecniche di realizzazione differenti da quelle comunemente in uso in Italia; da qui la difformità di risultati tra formule previsionali e misurazioni sperimentali. Al fine di realizzare uno studio completo delle principali casistiche della trasmissione laterale sono state utilizzate 6 configurazioni in scala reale, con elementi edilizi diversamente collegati fra loro in modo da simulare i nodi strutturali comunemente realizzati negli edifici. La parte sperimentale della ricerca è stata svolta presso le “Camere Acustiche di Prova” del Laboratorio del Lazzaretto “R. Alessi” del DIENCA. Oltre alle usuali misurazioni di isolamento acustico, sono state eseguite numerose misurazioni di vibrazione. Infatti, dal confronto dei livelli di velocità di vibrazione dei diversi elementi di una struttura, rigidamente connessi, è possibile determinare l’indice di riduzione delle vibrazioni Kij che è la grandezza chiave per modellizzare il fenomeno della trasmissione laterale. La possibilità di determinare sperimentalmente tali valori nel contesto di un lavoro di ricerca finalizzato a determinare i meccanismi di propagazione delle vibrazioni nelle strutture, permette di valutare la precisione delle formule previsionali del modello CEN e di proporne varianti e integrazioni. I valori di Kij così determinati assumono grande importanza anche in fase di progetto, fornendo dati attendibili da utilizzare per la progettazione acustica degli edifici.
Resumo:
The conversion coefficients from air kerma to ICRU operational dose equivalent quantities for ENEA’s realization of the X-radiation qualities L10-L35 of the ISO “Low Air Kerma rate” series (L), N10-N40 of the ISO “Narrow spectrum” series (N) and H10-H60 of the ISO “High Air-kerma rate” (H) series and two beams at 5 kV and 7.5 kV were determined by utilising X-ray spectrum measurements. The pulse-height spectra were measured using a planar high-purity germanium spectrometer (HPGe) and unfolded to fluence spectra using a stripping procedure then validate with using Monte Carlo generated data of the spectrometer response. HPGe portable detector has a diameter of 8.5 mm and a thickness of 5 mm. The entrance window of the crystal is collimated by a 0.5 mm thick Aluminum ring to an open diameter of 6.5 mm. The crystal is mounted at a distance of 5 mm from the Berillium window (thickness 25.4 micron). The Monte Carlo method (MCNP-4C) was used to calculate the efficiency, escape and Compton curves of a planar high-purity germanium detector (HPGe) in the 5-60 keV energy. These curves were used for the determination of photon spectra produced by the X-ray machine SEIFERT ISOVOLT 160 kV in order to allow a precise characterization of photon beams in the low energy range, according to the ISO 4037. The detector was modelled with the MCNP computer code and validated with experimental data. To verify the measuring and the stripping procedure, the first and the second half-value layers and the air kerma rate were calculated from the counts spectra and compared with the values measured using an a free-air ionization chamber. For each radiation quality, the spectrum was characterized by the parameters given in ISO 4037-1. The conversion coefficients from the air kerma to the ICRU operational quantities Hp(10), Hp(0.07), H’(0.07) and H*(10) were calculated using monoenergetic conversion coefficients. The results are discussed with respect to ISO 4037-4, and compared with published results for low-energy X-ray spectra. The main motivation for this work was the lack of a treatment of the low photon energy region (from a few keV up to about 60 keV).
Resumo:
“Il tocco pianistico: premesse storiche e sviluppi scientifici” si pone l’obiettivo di provare la politimbricità del pianoforte. A tal fine, ho indagato la relazione tra il gesto, la meccanica del pianoforte e il suono, problema sfiorato da alcuni maestri del Novecento, ma mai approfondito e sviscerato per ovvie ragioni riguardanti la mancanza di una tecnologia idonea e competenze difficili da trovare in una medesima persona. Per quest’ultima ragione mi sono avvalsa della collaborazione sia del Laboratorio di Anatomia Funzionale dell'Apparato Locomotore del Dipartimento di Morfologia Umana dell’Università di Milano, dove lavorano esperti delle più moderne tecnologie idonee alla registrazione del movimento, sia dell’ingegnere Alberto Amendola, docente a contratto di Acustica musicale presso l’Università di Parma per ciò che concerne l’analisi del suono e i rilievi acustici. La tesi si articola in due parti organizzate in quattro capitoli. Nel primo, La didattica pianistica nel primo trentennio del Novecento: il tocco e il timbro come parole chiave, dopo aver tracciato un quadro generale riguardante i concetti di ‘tocco’ e ‘timbro’ incontrati nei metodi e trattati del Sette/Ottocento, già affrontati nella tesi di laurea, procedo ad analizzare alcuni dei lavori più rappresentativi scritti tra la fine dell’Ottocento e gli anni Trenta del Novecento (The Leschetizky Method. A Guide to Fine and Correct Piano Playing di Malwine Brée, Über die physiologischen Fehler und die Umgestaltung der Klaviertechnik di Albert Maria Steinhausen, Die Grundlagen der Klaviertechnik di Rudolph Maria Breithaupt e The Phisiological Mechanics of Piano Technique di Otto Ortmann). Tali studi presentano una parte dedicata alle diverse modalità di produzione sonora e, quasi tutti, giungono ad una medesima conclusione: pur nella sua ricchezza, il pianoforte è uno strumento monotimbrico, dove la differenza tra i suoni è data dall’intensità e dall’agogica. Al fine di provare la politimbricità del pianoforte, il mio percorso di studi si è scontrato sia con la meccanica del pianoforte sia con l’acustica musicale. Ho fatto precedere quindi l’indagine scientifica, che confluisce nel capitolo IV, da una sezione in cui presento l’evoluzione della meccanica del pianoforte fino a giungere alla descrizione della meccanica moderna (capitolo II, Il Pianoforte: meccanica e modalità di produzione del suono), e da un’altra in cui affronto i fondamenti di acustica musicale, al fine di fornire al lettore i mezzi basilari per cimentarsi con la parte scientifica (capitolo III, Cenni di acustica musicale). Il capitolo IV è il resoconto organico e sistematico delle sperimentazioni svolte durante il dottorato presso il laboratorio di Anatomia funzionale dell’apparato locomotore dell’Università di Milano. La presentazione ripercorre necessariamente le tappe della ricerca considerata la novità assoluta dell’oggetto indagato. All’illustrazione dei dati di ogni fase segue sempre la discussione e l’interpretazione dei risultati per garantire la validità dell’esperimento. L’interesse della ricerca è stato condiviso oltre che dal dipartimento di Anatomia, anche dalla casa costruttrice di pianoforti Bechstein che ha costruito una meccanica speciale, e dalla ditta di pianoforti Angelo Fabbrini, che ha messo a disposizione un mezza coda Bechstein per effettuare i rilievi. Il capitolo IV, che rappresenta, dunque, il cuore della presente dissertazione dottorale, dimostra che il pianoforte è uno strumento politimbrico: mettendo in relazione il gesto pianistico, la reazione della meccanica e il suono è risultato che al movimento del martello, ripetibilmente diverso a seconda del tocco pianistico, corrisponde una reazione acustica che varia ripetibilmente in maniera differente a seconda del tocco.
Resumo:
L'Appenino Emiliano è tra le zone più franose al mondo; i fenomeni che la interessano sono abbastanza lenti e quindi mai catastrofici, ma, vista la loro diffusione, molto dannosi per le infrastrutture. La ricerca della pericolosità associata alle frane si distingue in previsione spaziale e previsione temporale; la prima, detta anche suscettività, è il tema del presente lavoro. La suscettività è volta alla realizzazione di carte di propensione al dissesto, relative e indipendenti dal tempo. Dall'inizio degli anni '90 sono disponibili in letteratura diversi modelli per rispondere a questa esigenza, i quali sono generalmente costituiti da una componente geo-meccanica (di solito il modello del Pendio Infinito) e una idrologica. Il presente lavoro si concentra su quest'ultima che, nei diversi modelli, presenta la maggiore varietà, e cerca di capire quale sia il contributo che questa componente può dare all'analisi di suscettività in un'area argillosa. Per valutare questo contributo, sono stati applicati ad un'area di studio rappresentativa, diversi modelli fisicamente basati noti in letteratura o creati appositamente. Le informazioni dinamiche dei modelli transitori sono state integrate nel tempo secondo diversi metodi che tengono conto della permanenza delle condizioni critiche nel versante. I risultati dell'analisi suggeriscono che, nell'area di studio, e presumibilmente nelle aree a prevalenza argillosa in genere, per la determinazione della suscettività alle frane, il contributo di un modello fisicamente basato, completo di componente geo-meccanica e componente idrologica accoppiate, è assolutamente trascurabile rispetto ad un semplice modello geo-meccanico basato sulla sola pendenza come quello del Pendio Infinito. Le indicazioni provenienti da un modello completo possono essere ridondanti o addirittura fuorvianti se questo non è adatto alle caratteristiche dell'area in studio e ben calibrato.