966 resultados para Berlino, Karl, Marx, Alle, Holzmarktsraße, Limite, SBahn


Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Educare le nuove generazioni all'uso consapevole del web è un'attività di notevole importanza, visto l'utilizzo sempre più intenso che la società contemporanea fa di questo insieme numeroso e variegato di tecnologie, identificato dalla parola "rete''. La rete quindi non è più paragonabile soltanto a un luogo virtuale da visitare ma quasi ad un'"atmosfera" che circonda la realtà stessa, rendendo costantemente vicine possibilità e preoccupazioni sempre nuove. Gli utenti della rete, siano essi "nativi" o "immigrati", si trovano a contatto con questo ambiente mutevole e rapidissimo e ne apprendono regole e usi, riportandoli a volte anche sulla realtà, con maggiore o minore disinvoltura. Le giovani generazioni sono particolarmente permeabili a questo tipo di apprendimento e dimostrano sempre maggiore affinità con lo strumento web, a volte rischiando di confondere il virtuale con il reale. La deriva valoriale e ideologica della società europea ed italiana lascia però dei vuoti che vengono spesso colmati dalle relazioni che sono loro più prossime. Anche quelle on the cloud, nel bene e nel male. Il rischio di scambiare il mezzo con il fine, poi, è sempre presente. La sfida per il sistema educativo, familiare, sociale, è dimostrarsi attento, essere aggiornato sulle tecnologie, è saper valutare attentamente, saper discernere e riconoscere le opere dai loro frutti, per poter condividere l'esperienza umana in tutti i suoi aspetti con coloro che, più di tutti, vanno in cerca di risposte profonde alle loro domande. Non bisogna aver paura di mettersi in gioco, talvolta anche di rischiare, perché la posta in gioco è altissima, è in gioco lo stesso rapporto di scambio e di fiducia tra generazioni differenti. Le maglie delle nostra "rete" di relazioni, di rapporti, di comunicazione, crescono sempre di numero, ma non bisogna promuovere la sola quantità a scapito della qualità della loro sostanza, soprattutto nel caso degli adolescenti. Concludendo, ritengo che nell'educazione al web siano fondamentali: l'attenzione, l'ascolto reciproco, la cura dei dettagli e l'attenzione al rispetto delle regole. La precisione del controllo, il senso del limite e il valore prospettico delle aspettative sono strumenti imprescindibili per costruire giorno dopo giorno una "rete" formata per le persone e non soltanto delle persone formate per la rete.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Oggetto della tesi e' l'approfondimento su tecniche e metodiche di preservazione del polmone isolato per lo studio ecografico. E' discussa l'appropriatezza sull'uso degli ultrasuoni in corso di chirurgia mini invasiva polmonare, obiettivo di una ricerca sperimentale. Il razionale dello studio si fonda sull'indicazione all'exeresi chirurgica di noduli polmonari di diametro inferiore al centometro, ovvero di diametro superiore ma localizzati in aree centrali del polmone. Queste lesioni sono sempre piu' frequentente diagnosticate per mezzo di avanzate tecniche di imaging. L'atto chirurgico ha scopo terapeutico quando sia stata posta la diagnosi di neoplasia maligna, diagnostico-terapeutico quando non sia ancora ottenuta la tipizzazione istologica della lesione. La tecnica toracoscopica offre numerosi vantaggi rispetto alle tecniche chirurgiche tradizionali ma presenta il grave limite di non permettere la palpazione diretta del tessuto polmonare e la localizzazione della formazione tumorale quando essa non sia visibile macroscopicamente. Gli ultrasuoni sono stati utilizzati con successo per indirizzare la localizzazione del nodulo polmonare. Scopo dello studio sperimentale e' quello di confrontare tecniche diverse di preservazione del polmone isolato in un modello animale, comparando catatteristiche e prestazioni di sonde ecografiche differenti per tipologia. Del tutto recentemente, in ambito trapiantologico, sono state proposte tecniche di preservazione organica utili ai fini di uno studio anatomico sperimentale particolareggiato (EVLP) e moderna e' da considerarsi la concezione di mezzi tecnici specifici per la localizzazione di bersagli intrapolmonari. La tecnica clinica applicata allo studio del particolare ecografico, nel modello animale, ha reso comprensibile e meglio definito il ruolo delle sonde ecografiche nell'individuazione di forme tumorali suscettibili di exeresi definitiva.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il cancro colorettale (CRC) rimane la prima causa di morte nei paesi occidentali.Dal 15% al 25% dei pazienti affetti da CRC presenta metastasi epatiche sincrone (CRLM) al momento della diagnosi.La resezione epatica radicale rimane l’unica terapia potenzialmente curativa in presenza di CRLM con una sopravvivenza a 5 anni compresa tra il 17% ed il 35% ed a 10 anni tra il 16% e il 23% rispettivamente. La tempistica ottimale per la resezione chirurgica in caso di presentazione sincrona di CRC è controversa.Questo studio intende dimostrare che le resezioni epatiche ecoguidate radicali ma conservative simultanee ad una resezione colorettale rappresentano una tecnica sicura ed efficace nei pazienti con CRC avanzato. 48 pazienti sono stati sottoposti ad una resezione simultanea colorettale ed epatica. L’età media +SD (range) era di 64,2+9,7 (38-84).Un solo paziente è deceduto entro 30 giorni. La mortalità post operatoria è stata complessivamente del 2,1%. Nove pazienti (18,8%) hanno sviluppato una o più complicanza ,4 (8,3%) di grado III-IV sec. Clavien-Dindo e 5 (10,4%) di grado I-II. La durata complessiva dell’intervento chirurgico simultaneo è stata di 486,6+144,0 (153-804) minuti.Questo studio conferma che le resezioni colorettali ed epatiche simultanee possono essere eseguite senza un significativo aumento della morbilità e mortalità perioperatorie, anche in pazienti sottoposti ad una resezione anteriore ultrabassa ed in quelli in cui sia indicato il clampaggio intermittente dell’ilo epatico. L’IOUS è efficace nel ridurre l’estensione della resezione epatica in pazienti sia con CRLM anche multiple e bilobari .Poichè le complicanze maggiori sono frequenti dopo resezioni epatiche maggiori simultanee, riducendo l’estensione della resezione del parenchima epatico si può avere un impatto favorevole sul decorso post operatorio.Le resezioni epatiche ecoguidate radicali ma conservative simultanee ad una resezione colorettale sono una tecnica sicura ed efficace in pazienti con carcinoma colorettale avanzato e andrebbero considerate l’opzione primaria in casi selezionati

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il lavoro di ricerca è rivolto ad indagare l’emersione di schemi di variazione comuni all’arte e al design, limitatamente al contesto italiano e in un arco di tempo che va dalla metà degli anni Sessanta del secolo scorso a oggi. L’analisi vuole rintracciare, mediante l’applicazione della metodologia fenomenologica, un sentire condiviso tra le due discipline e, nel pieno rispetto dei relativi linguaggi e con nessuna volontà di sudditanza degli uni rispetto agli altri, individuare i rapporti di corrispondenza omologica capaci di mettere in luce lo spirito del tempo che le ha generate. La ricerca si pone l’obiettivo di estendere gli studi sul contemporaneo attraverso un’impostazione che intende applicare gli strumenti metodologici della critica d’arte all’evoluzione stilistica delle tendenze del design italiano. Non si è voluto redigere una “storia” del design italiano ma, considerata anche l’ampiezza dell’argomento, si è necessariamente proceduto a delimitare il territorio di applicazione scegliendo di prendere in considerazione il solo settore del design dell’arredo. Si è dunque optato per una visione globale delle vicende del design del prodotto, tesa ad indagare gli snodi principali, concentrando pertanto l’analisi su alcuni protagonisti della cultura del progetto, ossia su quelle figure risultate dominanti nel proprio tempo perché capaci con il loro lavoro di dare un contribuito determinante alla comprensione delle fasi evolutive del design italiano. Gli strumenti utili a condurre l’analisi provengono principalmente dalla metodologia binaria individuata dallo storico dell’arte Heinrich Wölfflin e dagli studi di Renato Barilli, il cui impianto culturologico ha fornito un indispensabile contributo al processo di sistematizzazione dei meccanismi di variazione interni alle arti; sia quelli di tipo orizzontale, di convergenza reciproca con gli altri saperi, che di tipo verticale, in rapporto cioè con le scoperte scientifiche e tecnologiche della coeva cultura materiale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Partendo dal campione di AGN presente nella survey di XMM-COSMOS, abbiamo cercato la sua controparte ottica nel database DR10 della Sloan Digital Sky Survey (SDSS), ed il match ha portato ad una selezione di 200 oggetti, tra cui stelle, galassie e quasar. A partire da questo campione, abbiamo selezionato tutti gli oggetti con un redshift z<0.86 per limitare l’analisi agli AGN di tipo 2, quindi siamo giunti alla selezione finale di un campione di 30 sorgenti. L’analisi spettrale è stata fatta tramite il task SPECFIT, presente in IRAF. Abbiamo creato due tipi di modelli: nel primo abbiamo considerato un’unica componente per ogni riga di emissione, nel secondo invece è stata introdotta un’ulteriore com- ponente limitando la FWHM della prima ad un valore inferiore a 500 km\s. Le righe di emissione di cui abbiamo creato un modello sono le seguenti: Hβ, [NII]λλ 6548,6581, Hα, [SII]λλ 6716,6731 e [OIII]λλ 4959,5007. Nei modelli costruiti abbiamo tenuto conto della fisica atomica per quel che riguarda i rapporti dei flussi teorici dei doppietti dell’azoto e dell’ossigeno, fissandoli a 1:3 per entrambi; nel caso del modello ad una componente abbiamo fissato le FWHM delle righe di emissione; mentre nel caso a due componenti abbiamo fissato le FWHM delle componenti strette e larghe, separatamente. Tenendo conto del chi-quadro ottenuto da ogni fit e dei residui, è stato possibile scegliere tra i due modelli per ogni sorgente. Considerato che la nostra attenzione è focalizzata sulla cinematica dell’ossigeno, abbiamo preso in considerazione solo le sorgenti i cui spettri mostravano la riga suddetta, cioè 25 oggetti. Su questa riga è stata fatta un’analisi non parametrica in modo da utilizzare il metodo proposto da Harrison et al. (2014) per caratterizzare il profilo di riga. Sono state determinate quantità utili come il 2 e il 98 percentili, corrispondenti alle velocità massime proiettate del flusso di materia, e l’ampiezza di riga contenente l’80% dell’emissione. Per indagare sull’eventuale ruolo che ha l’AGN nel guidare questi flussi di materia verso l’esterno, abbiamo calcolato la massa del gas ionizzato presente nel flusso e il tasso di energia cinetica, tenendo conto solo delle componenti larghe della riga di [OIII] λ5007. Per la caratterizzazione energetica abbiamo considerato l’approccio di Cano-Diaz et al (2012) e di Heckman (1990) in modo da poter ottenere un limite inferiore e superiore della potenza cinetica, adottando una media geometrica tra questi due come valore indicativo dell’energetica coinvolta. Confrontando la potenza del flusso di gas con la luminosità bolometrica dell’AGN, si è trovato che l’energia cinetica del flusso di gas è circa lo 0.3-30% della luminosità dell’AGN, consistente con i modelli che considerano l’AGN come principale responsabile nel guidare questi flussi di gas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi dottorale si incentra sull'analisi del principio di precauzione e sulla sua portata applicativa in quella che possiamo definire “la vita del medicinale”. La disamina prende le sue mosse dalla teoria generale relativa al principio di precauzione e ne indaga, in primis, le sue origini e la sua evoluzione e successivamente ne considera la trasposizione giuridica nel settore ambientale e della salute umana. Si può sintetizzare, in via generale, come il ricorso al principio di precauzione avvenga quando il rischio connesso ad un evento non è un rischio determinato, ma è un rischio potenziale, cioè non supportato da dati scientifici che dimostrino in modo chiaro la connessione esistente tra avvenimento e danni (causa – effetto). In particolare, i dati scientifici che tentano di analizzare detto rischio non sono sufficienti o non sono giunti ad un risultato concludente e quindi la valutazione che viene fatta non consente di determinare il rischio con sufficiente certezza. La tesi dottorale focalizza la sua attenzione sull’applicazione del principio di precauzione ad un particolare bene, il medicinale; la necessità di minimizzare i rischi derivanti dall’assunzione del farmaco richiede un presidio dei pubblici poteri e di conseguenza questo comporta la necessità di “amministrare” il medicinale anche attraverso una serie di autorizzazioni amministrative quali l’autorizzazione alla produzione, l’autorizzazione all’immissione in commercio, l’autorizzazione alla distribuzione ed alla commercializzazione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scopo del presente lavoro è gettare la massima luce possibile (in base ai documenti disponibili), sia dal punto di vista teorico che storico, su due questioni che la ricerca schopenhaueriana ha già da tempo considerato come decisive: la frequenza, da parte del giovanissimo Schopenhauer, delle lezioni di Fichte e la genesi, lo sviluppo e infine l’abbandono del filosofema della «coscienza migliore». Il lavoro è perciò diviso in due sezioni: «Analisi degli appunti» e «La coscienza migliore». Schopenhauer frequentò a Berlino, nel semestre invernale 1811-12, quattro lezioni di Fichte «Sullo studio della filosofia», e poi i corsi «Sui fatti della coscienza» e «Sulla dottrina della scienza». Nei suoi appunti concernenti queste lezioni, Schopenhauer ha registrato non soltanto l’esposizione di Fichte, ma anche le sue osservazioni e obbiezioni. L’analisi di questi appunti, condotta nella prima parte, consente perciò di documentare dettagliatamente il primo incontro del giovane Schopenhauer con la filosofia di Fichte e di indicare i punti specifici dell’esposizione di quest’ultimo che possono aver costituito un riferimento teorico significativo per il successivo sviluppo della filosofia schopenhaueriana. La seconda parte del lavoro è dedicata all’analisi dei Manoscritti giovanili di Schopenhauer, redatti dal 1804 al 1814, e soprattutto al filosofema della «coscienza migliore». Il tema della prima parte e il tema della seconda parte del lavoro sono in stretta relazione, in quanto, come è dimostrato nel corso dell’indagine, l’ascolto dei corsi di Fichte mosse Schopenhauer a elaborare i principi fondamentali del filosofema in questione. Quest’ultimo costituisce il primo tentativo di sistema di Schopenhauer. Attraverso l’analisi di tale filosofema si muove perciò un’indagine sistematica sui primissimi esperimenti teorici del giovane Schopenhauer, mettendo in evidenza il percorso e gli influssi attraverso i quali il filosofo tedesco è gradualmente giunto alle sue posizioni definitive concernenti il sistema della volontà di vivere. Nel lavoro si dimostra che la preferenza di Schopenhauer per il sistema della volontà di vivere rispetto al tentativo di sistema della coscienza migliore è necessitato da un’esigenza di coerenza verso quelle che Schopenhauer stesso considera le istanze irrinunciabili del criticismo kantiano. Al tempo stesso, si mostra come il filosofema della «coscienza migliore» abbia costituto, nelle riflessioni del giovane Schopenhauer, un importantissimo “esperimento teorico”, il cui fallimento fornì l’impulso fondamentale per l’elaborazione del sistema della volontà di vivere.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sono rari i problemi risolubili in maniera esatta in meccanica quantistica. Ciò è legato alle difficoltà matemtiche insite nella teoria dei quanti. Inoltre i problemi risolti, pur essendo in alcuni casi delle ottime approssimazioni, sono spesso delle astrazioni delle situazioni reali. Si pensi ad esempio al caso di una particella quantistica di un problema unidimensionale. Questi sistemi sono talmente astratti da violare un principio fondamentale, il principio di indetermi- nazione. Infatti le componenti dell’impulso e della posizione perpendicolari al moto sono nulle e quindi sono note con certezza ad ogni istante di tempo. Per poter ottenere una descrizione dei modelli che tendono alla realtà è necessario ricorrere alle tecniche di approssimazione. In questa tesi sono stati considerati i fenomeni che coinvolgono una interazione variabile nel tempo. In particolare nella prima parte è stata sviluppata la teoria delle rappresentazioni della meccanica quantistica necessaria per la definizione della serie di Dyson. Questa serie oper- atoriale dovrebbe convergere (il problema della convergenza non è banale) verso l’operatore di evoluzione temporale, grazie al quale è possibile conoscere come un sistema evolve nel tempo. Quindi riuscire a determinare la serie di Dyson fino ad un certo ordine costituisce una soluzione approssimata del problema in esame. Supponiamo che sia possibile scomporre l’hamiltoniana di un sistema fisico nella somma di due termini del tipo: H = H0 + V (t), dove V (t) è una piccola perturbazione dipendente dal tempo di un problema risolubile esattamente caratterizzato dall’hamiltoniana H0 . In tal caso sono applicabili i metodi della teoria perturbativa dipendente dal tempo. Sono stati considerati due casi limite, ovvero il caso in cui lo spettro dell’hamiltoniana imperturbata sia discreto e non degenere ed il caso in cui lo spettro sia continuo. La soluzione al primo ordine del caso discreto è stata applicata per poter formu- lare il principio di indeterminazione energia-tempo e per determinare le regole di selezione in approssimazione di dipolo elettrico. Il secondo caso è servito per spiegare il decadimento beta, rimanendo nel campo della teoria quantistica classica (per una trattazione profonda del problema sarebbe necessaria la teoria dei campi).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi viene affrontato il problema della stabilità delle strutture stellari da un punto di vista relativistico. La stella è approssimata ad un fluido perfetto a simmetria sferica, e le equazioni che ne governano la struttura vengono ricavate grazie alle risoluzione delle equazioni di campo della relatività generale in questo caso particolare. L'approssimazione di fluido perfetto permette anche di ricavare un'equazione di stato che lega densità di energia e pressione tramite un parametro, detto parametro di rigidità. Un'analisi del comportamento della materia al variare della densità consente di stabilire l'andamento di questo parametro, mentre uno studio delle piccole oscillazioni radiali della stella permette di stabilire quali sono i valori del parametro che consentono un equilibrio stabile. La stabilità risulta possibile in due differenti intervalli di densità, che corrispondono ai due tipici stadi finali dell'evoluzione stellare: nana bianca e stella di neutroni. Grazie alle equazioni che descrivono la struttura stellare è possibile stabilire, nei due intervalli di densità, quale sia il valore che la massa della stella non può superare: si ricavano il limite di Chandrasekhar e il limite di Oppenheimer-Volkoff. Infine viene mostrato come la relatività generale imponga un limite assoluto alla stabilità di una distribuzione di materia, sostenuta da una qualsiasi forza della natura: superato questo confine, la materia non può fare altro che collassare in un buco nero.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nella presente tesi si esamina il grado topologico in spazi di dimensione finita nonché in spazi di dimensione infinita. La trattazione si focalizza sulla proprietà di invarianza per omotopia e teoremi di punto fisso, con relativa applicazione ad equazioni differenziali che ammettono soluzioni periodiche.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro è stato svolto presso il Servizio di Fisica Sanitaria dell’Azienda USL della Romagna, Presidio Ospedaliero di Ravenna e consiste nella validazione del dato dosimetrico visualizzato su due apparecchiature per mammografia digitale e nel confronto tra qualità immagine di diverse curve di acquisizione in funzione della dose e della post-elaborazione. Presupposto per l’acquisizione delle immagini è stata la validazione del dato dosimetrico visualizzato sui mammografi, tramite misura diretta della dose in ingresso con strumentazione idonea, secondo protocolli standard e linee guida europee. A seguire, sono state effettuate prove di acquisizione delle immagini radiografiche su due diversi fantocci, contenenti inserti a diverso contrasto e risoluzione, ottenute in corrispondenza di tre curve dosimetriche e in funzione dei due livelli di post-elaborazione delle immagini grezze. Una volta verificati i vari passaggi si è proceduto con l’analisi qualitativa e quantitativa sulle immagini prodotte: la prima valutazione è stata eseguita su monitor di refertazione mammografica, mentre la seconda è stata effettuata calcolando il contrasto in relazione alla dose ghiandolare media. In particolare è stato studiato l’andamento del contrasto cambiando le modalità del software Premium View e lo spessore interposto tra la sorgente di raggi X ed il fantoccio, in modo da simulare mammelle con grandezze differenti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La complessa materia della prevenzione incendi può essere approcciata secondo due strategie sostanzialmente differenti. Da una parte, l’approccio di tipo deterministico, imperante in Italia, si concretizza nell’emanazione di norme estremamente prescrittive e nel ricorso da parte del progettista a strumenti di calcolo molto semplici. Il pregio maggiore di tale approccio risiede senza dubbio alcuno nella sua estrema semplicità, nella garanzia di una certa omogeneità di applicazione e nella possibilità di erogare in tempi ragionevoli una formazione uniforme ed accettabile ai controllori. Mentre il limite più evidente consiste nella rigidità, talora eccessiva, delle prescrizioni normative e nelle procedure di calcolo da adottare. Dall’altra, un approccio di tipo ingegneristico (Fire Safety Engineering), seguito per lo più nei paesi anglosassoni, si basa sulla predizione della dinamica evolutiva dell’incendio tramite l’applicazione di idonei modelli di calcolo fisicamente basati (physically sound). Punto di forza di questa seconda strategia è la sua estrema flessibilità, che consente la simulazione d’incendi di complessità anche molto elevata. Per contro i limiti più evidenti di tale approccio risiedono nella problematica validazione sperimentale dei modelli in argomento, data la natura distruttiva delle prove che andrebbero condotte, nella spinta preparazione richiesta ai professionisti ed ancor più ai controllori, dato il proliferare negli anni di modelli anche molto diversi tra loro, ed, infine, nel caso di raffinati modelli di campo, in un onere computazionale non sempre sostenibile con i PC di comune diffusione. Allo stato attuale in Italia il ricorso alla Fire Safety Engineering è di fatto circoscritto alle applicazioni per le quali non esiste una specifica norma prescrittiva, su tutte la valutazione del rischio in attività a rischio di incidente rilevante e la Fire Investigation; talora essa è impiegata anche per la valutazione della sicurezza equivalente in occasione di richiesta di deroga a norme prescrittive.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scopo della prototipazione rapida è la realizzazione di prototipi destinati alle osservazioni al fine di migliorare il progetto in via di sviluppo. Tuttavia, negli ultimi anni si sta cercando di ottenere prototipi che siano già di per sé funzionali e quindi oggetti pronti all'uso. Soprattutto per i materiali metallici, si stanno sviluppando tecniche di prototipazione che tendono a diventare veri e propri processi tecnologici di produzione: una di queste è il processo DMLS (Direct Metal Laser Sintering). La tecnologia di Sinterizzazione Laser Selettiva dei Metalli (DMLS) si realizza attraverso un processo per addizione stratificata, in cui l’utilizzo di un laser ad alta densità di energia permette di fondere metalli in polvere, creando il modello o il prototipo tridimensionale. La tecnologia DMLS risulta estremamente innovativa ed offre la possibilità di sviluppare componenti con un grado di precisione elevato e un livello di dettaglio accurato. I vantaggi di questa tecnologia sono diversi, ma il più importante è l'estrema flessibilità di progetto in quanto si eliminano i vincoli di fabbricazione dettati dalle tecniche di produzione convenzionali basate sull'asportazione di truciolo, dando così piena libertà di design al progettista. Un esempio di applicazione di questa tecnologia è la costruzione di stampi per lo stampaggio ad iniezione: per poter migliorare il ciclo di produzione (in termini di tempo e quindi di denaro) è possibile creare canali di raffreddamento interni ottimizzati con forme e traiettorie diverse dalle tradizionali rettilinee ottenute per foratura. Dunque, associando questa tecnologia con i diversi materiali disponibili in commercio, è possibile costruire manufatti altamente customizzati e performanti a seconda delle varie esigenze. L’obiettivo di questo lavoro è stato quello di stimare e confrontare il limite di fatica per vita infinita di tre serie di provini, ottenuti mediante il processo innovativo DMLS, accresciuti secondo la direzione verticale, orizzontale ed inclinata a 45°; in particolare si è voluto osservare il comportamento dei provini in quest’ultimo caso, non essendoci informazioni precise in letteratura. La polvere di metallo utilizzata per la fabbricazione dei provini è il Maraging Steel, un acciaio dalle caratteristiche meccaniche eccezionali utilizzato soprattutto nel campo aereonautico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La sezione d’urto totale adronica gioca un ruolo fondamentale nel programma di fisica di LHC. Un calcolo di questo parametro, fondamentale nell’ambito della teoria delle interazioni forti, non é possibile a causa dell’inapplicabilità dell’approccio perturbativo. Nonostante ciò, la sezione d’urto può essere stimata, o quanto meno le può essere dato un limite, grazie ad un certo numero di relazioni, come ad esempio il Teorema Ottico. In questo contesto, il detector ALFA (An Absolute Luminosity For ATLAS) sfrutta il Teorema Ottico per determinare la sezione d’urto totale misurando il rate di eventi elastici nella direzione forward. Un tale approccio richiede un metodo accurato di misura della luminosità in condizioni sperimentali difficoltose, caratterizzate da valori di luminosità istantanea inferiore fino a 7 ordini di grandezza rispetto alle normali condizioni di LHC. Lo scopo di questa tesi è la determinazione della luminosità integrata di due run ad alto β*, utilizzando diversi algoritmi di tipo Event-Counting dei detector BCM e LUCID. Particolare attenzione è stata riservata alla sottrazione del fondo e allo studio delle in- certezze sistematiche. I valori di luminosità integrata ottenuti sono L = 498.55 ± 0.31 (stat) ± 16.23 (sys) μb^(-1) and L = 21.93 ± 0.07 (stat) ± 0.79 (sys) μb^(-1), rispettivamente per i due run. Tali saranno forniti alla comunità di fisica che si occupa della misura delle sezioni d’urto protone-protone, elastica e totale. Nel Run II di LHC, la sezione d’urto totale protone-protone sarà stimata con un’energia nel centro di massa di 13 TeV per capire meglio la sua dipendenza dall’energia in un simile regime. Gli strumenti utilizzati e l’esperienza acquisita in questa tesi saranno fondamentali per questo scopo.