981 resultados para metastasi blastiche,proprietà meccaniche,nanoindentazione
Resumo:
La ricerca è dedicata a verificare se e come, a livello dell’Unione europea, la lotta alla criminalità (ed in particolare quella organizzata) venga condotta nel rispetto di diritti e libertà fondamentali, e se la cooperazione tra Stati membri su questo fronte possa giungere a promuovere standard omogenei ed elevati di tutela degli stessi. Gli ambiti di cooperazione interessati sono principalmente quello giudiziario in materia penale e quello di polizia, e la ritrosia degli Stati a cedere all’Unione competenze in materia si è accompagnata ad un ritardo ancora maggiore dell’emersione, nell’ambito degli stessi, della dimensione dei diritti. Ciò ha reso molto difficile lo sviluppo completo ed equilibrato di uno “spazio di libertà, sicurezza e giustizia” (art. 67 TFUE). L’assetto istituzionale introdotto dal Trattato di Lisbona e l’attribuzione di valore giuridico vincolante alla Carta hanno però posto le basi per il superamento della condizione precedente, anche grazie al fatto che, negli ambiti richiamati, la salvaguardia dei diritti è divenuta competenza ed obiettivo esplicito dell’Unione. Centrale è per la ricerca la cooperazione giudiziaria in materia penale, che ha visto la ricca produzione normativa di stampo repressivo recentemente bilanciata da interventi del legislatore europeo a finalità garantista e promozionale. L’analisi degli strumenti nella prospettiva indicata all’inizio dell’esposizione è quindi oggetto della prima parte dell’elaborato. La seconda parte affronta invece la cooperazione di polizia e quello degli interventi volti alla confisca dei beni e ad impedire il riciclaggio, misure – queste ultime - di particolare rilievo soprattutto per il contrasto al crimine organizzato. Sottesi all’azione dell’Unione in queste materie sono, in modo preponderante, due diritti: quello alla salvaguardia dei dati personali e quello al rispetto della proprietà privata. Questi, anche in ragione delle peculiarità che li caratterizzano e della loro natura di diritti non assoluti, sono analizzati con particolare attenzione.
Resumo:
L’obiettivo di questa tesi è stato quello di migliorare l’efficacia e l’efficienza di una proposta allo stato dell’arte per l’individuazione di punti salienti in immagini digitali [1]. Questo algoritmo sfrutta le proprietà dell’equazione alle derivate parziali che modella l’evoluzione di un’onda. Per migliorarlo sono stati implementati alcuni schemi numerici di risoluzione dell’equazione delle onde bidimensionale e sono stati valutati rispetto allo schema già utilizzato. Sono stati implementati sia schemi impliciti sia schemi espliciti, tutti in due versioni: con interlacciamento con l’equazione del calore (diffusivi) e senza. Lo studio dei migliori schemi è stato approfondito e questi ultimi sono stati confrontati con successo con la versione precedentemente proposta dello schema esplicito INT 1/4 con diffusione [1]. In seguito è stata realizzata una versione computazionalmente più efficiente dei migliori schemi di risoluzione attraverso l’uso di una struttura piramidale ottenuta per sotto-campionamento dell’immagine. Questa versione riduce i tempi di calcolo con limitati cali di performance. Il tuning dei parametri caratteristici del detector è stato effettuato utilizzando un set di immagini varianti per scala, sfocamento (blur), punto di vista, compressione jpeg e variazione di luminosità noto come Oxford dataset. Sullo stesso sono stati ricavati risultati sperimentali che identificano la proposta presentata come il nuovo stato dell’arte. Per confrontare le performance di detection con altri detector allo stato dell’arte sono stati utilizzati tre ulteriori dataset che prendono il nome di Untextured dataset, Symbench dataset e Robot dataset. Questi ultimi contengono variazioni di illuminazione, momento di cattura, scala e punto di vista. I detector sviluppati risultano i migliori sull’Untextured dataset, raggiungono performance simili al miglior detector disponibile sul Symbench dataset e rappresentano il nuovo stato dell’arte sul Robot dataset.
Resumo:
Introduzione Attualmente i principali punti critici del trattamento dell’HCC avanzato sono: 1) la mancanza di predittori di risposta alla terapia con sorafenib, 2) lo sviluppo resistenze al sorafenib, 3) la mancanza di terapie di seconda linea codificate. Scopo della tesi 1) ricerca di predittori clinico-laboratoristici di risposta al sorafenib in pazienti ambulatoriali con HCC; 2) valutazione dell’impatto della sospensione temporanea-definitiva del sorafenib in un modello murino di HCC mediante tecniche ecografiche; 3) valutazione dell’efficacia della capecitabina metronomica come seconda linea dell’HCC non responsivo a sorafenib. Risultati Studio-1: 94 pazienti con HCC trattato con sorafenib: a presenza di metastasi e PVT-neoplastica non sembra inficiare l’efficacia del sorafenib. AFP basale <19 ng/ml è risultata predittrice di maggiore sopravvivenza, mentre lo sviluppo di nausea di una peggiore sopravvivenza. Studio -2: 14 topi con xenografts di HCC: gruppo-1 trattato con placebo, gruppo-2 trattato con sorafenib con interruzione temporanea del farmaco e gruppo-3 trattato con sorafenib con sospensione definitiva del sorafenib. La CEUS targettata per il VEGFR2 ha mostrato al giorno 13 valori maggiori di dTE nel gruppo-3 confermato da un aumento del VEGFR2 al Western-Blot. I tumori del gruppo-2 dopo 2 giorni di ritrattamento, hanno mostrato un aumento dell’elasticità tissutale all’elastonografia. Studio-3:19 pazienti trattati con capecitabina metronomica dopo sorafenib. Il TTP è stato di 5 mesi (95% CI 0-10), la PFS di 3,6 mesi (95% CI 2,8-4,3) ed la OS di 6,3 mesi (95% CI 4-8,6). Conclusioni Lo sviluppo di nausea ed astenia ed AFP basale >19, sono risultati predittivi di una minore risposta al sorafenib. La sospensione temporanea del sorafenib in un modello murino di HCC non impedisce il ripristino della risposta tumorale, mentre una interruzione definitiva tende a stimolare un “effetto rebound” dell’angiogenesi. La capecitabina metronomica dopo sorafenib ha mostrato una discreta attività anti-neoplastica ed una sicurezza accettabile.
Resumo:
The aim of this work is to present various aspects of numerical simulation of particle and radiation transport for industrial and environmental protection applications, to enable the analysis of complex physical processes in a fast, reliable, and efficient way. In the first part we deal with speed-up of numerical simulation of neutron transport for nuclear reactor core analysis. The convergence properties of the source iteration scheme of the Method of Characteristics applied to be heterogeneous structured geometries has been enhanced by means of Boundary Projection Acceleration, enabling the study of 2D and 3D geometries with transport theory without spatial homogenization. The computational performances have been verified with the C5G7 2D and 3D benchmarks, showing a sensible reduction of iterations and CPU time. The second part is devoted to the study of temperature-dependent elastic scattering of neutrons for heavy isotopes near to the thermal zone. A numerical computation of the Doppler convolution of the elastic scattering kernel based on the gas model is presented, for a general energy dependent cross section and scattering law in the center of mass system. The range of integration has been optimized employing a numerical cutoff, allowing a faster numerical evaluation of the convolution integral. Legendre moments of the transfer kernel are subsequently obtained by direct quadrature and a numerical analysis of the convergence is presented. In the third part we focus our attention to remote sensing applications of radiative transfer employed to investigate the Earth's cryosphere. The photon transport equation is applied to simulate reflectivity of glaciers varying the age of the layer of snow or ice, its thickness, the presence or not other underlying layers, the degree of dust included in the snow, creating a framework able to decipher spectral signals collected by orbiting detectors.
Resumo:
Il sistema ferroviario ha sempre ricoperto un ruolo rilevante nel nostro Paese sia per il trasporto di persone, sia per il trasporto di merci: risulta, quindi, essenziale per il commercio e per il turismo. A differenza della strada in cui i veicoli circolano “a vista”, una ferrovia richiede che i sistemi di distanziamento dei treni siano indipendenti dalla visibilità dei veicoli, poiché gli spazi di frenatura sono solitamente molto maggiori della distanza di visibilità stessa. Per questo motivo i sistemi di segnalamento e sicurezza ricoprono un ruolo di primo piano. Nel tempo sono stati effettuati ingenti investimenti che hanno portato all'impiego di nuove tecnologie le quali hanno permesso la progettazione di sistemi safety critical contenenti componenti informatici hardware e software. La caratteristica principale di tali sistemi è la proprietà di non arrecare danno alla vita umana o all'ambiente: tale proprietà viene comunemente associata al termine anglosassone safety per distinguerla dall’accezione di "protezione da violazioni all'integrità del sistema" che il termine "sicurezza" usualmente assume. Lo sviluppo economico e tecnologico a cui abbiamo assistito nell’ultimo ventennio ha inevitabilmente reso tali sistemi ancora più sofisticati e di conseguenza complessi, richiedendo allo stesso tempo requisiti e garanzie di buon funzionamento sempre più marcati ed articolati. È proprio a questi motivi che si devono gli studi su quella che viene definita la dependability dei sistemi di computazione, verso cui si concentrano e convogliano buona parte degli sforzi e delle risorse in fase di ricerca e progettazione. Il lavoro di tesi che segue è stato svolto in collaborazione con due grandi imprese del territorio nazionale: RFI (Reti Ferroviarie Italiane) e Sirti. Inizialmente abbiamo interagito con RFI per entrare nell’ambiente ferroviario ed assimilarne il lessico e i bisogni. All’interno di RFI è stato effettuato un tirocinio nel quale ci siamo occupati del “processo off-line” riguardante la gestione in sicurezza di una stazione; tale attività deve essere effettuata da RFI prima della messa in esercizio di una nuova stazione. Per far questo abbiamo dovuto utilizzare i programmi di preparazione dei dati messi a disposizione da Sirti. In un secondo momento abbiamo approfondito l’argomentazione della safety interfacciandoci con Sirti, una delle società che forniscono sistemi safety critical computerizzati per il controllo delle stazioni. In collaborazione con essa ci siamo addentrati nel loro sistema scoprendo le loro scelte implementative e come hanno raggiunto i loro obiettivi di safety. Infine, ci siamo occupati dell'inserimento nel sistema di una nuova funzionalità, per aumentarne l’affidabilità e la sicurezza, e delle problematiche relative all'impiego del componente che la realizza.
Resumo:
L’obiettivo fondamentale è di investigare l’effetto di differenti distribuzioni delle proprietà di dissipatori fluido viscosi non lineari lungo l’altezza delle strutture per il retrofit di telai in cemento armato esistenti. Le differenti distribuzioni sono calcolate sulla base dello stesso smorzamento supplementare. Nella fase di progetto si è confrontato la somma dei coefficienti di distribuzione in modo da valutare la loro efficacia. I risultati di questa fase sono poi controllati attraverso estensive analisi dinamiche non lineari, in termini di spostamenti di piano, spostamenti d’interpiano e forze nei dissipatori, considerando la non linearità della struttura e dei dissipatori. I casi di studio sono telai bidimensionali in cemento armato, caratterizzato da un differente numero di piani (3, 6 e 9 piani) e anche da differenti proprietà in termini di regolarità in elevazione. Un altro proposito è quindi investigare l’effetto della distribuzione verticale dei dissipatori per telai regolari e irregolari.
Resumo:
La tesi consiste nella ricerca di un candidato ideale per la soluzione del problema di Dirichlet. Vengono affrontati gli argomenti in maniera graduale, partendo dalle funzioni armoniche e le loro relative proprietà, passando per le identità e le formule di rappresentazione di Green, per finire nell'analisi del problema sopra citato, mediante i risultati precedentemente ottenuti, per concludere trovando la formula integrale di Poisson come soluzione ma anche come formula generale per sviluppi in vari ambiti.
Resumo:
Oggetto della mia tesi è la trasformata di Fourier e la sua applicazione alla risoluzione dell'equazione del calore e dell'equazione delle onde. Nel primo capitolo ricordo la definizione di trasformata di Fourier, alcune sue proprietà e infine la definizione di Spazi di Schwartz. Nel secondo capitolo risolverò l'equazione del calore e nel terzo l'equazione delle onde.
Resumo:
Risolvere il problema isoperimetrico in R^2 significa determinare la figura piana avente area maggiore tra tutte le figure aventi ugual perimetro. In questo lavoro trattiamo la risoluzione del problema isoperimetrico in R^2 proposta da Hurwitz, il quale, basandosi esclusivamente sulle proprietà analitiche delle serie di Fourier, è riuscito a dimostrare che la circonferenza è l'unica curva piana, semplice, chiusa e rettificabile con l'area massima avendo fissato il perimetro.
Resumo:
Tesi realizzata presso l’azienda Paglierani S.r.l. con sede a Torriana, per l’esigenza di studiare e ottimizzare dinamicamente il manipolatore “Antrop”. Dopo una breve descrizione dell’azienda e della sua storia, nel secondo capitolo sono racchiuse le informazioni più importanti e utili sulla robotica e sugli azionamenti elettrici, nozioni poi sfruttate durante lo svolgimento dell’elaborato stesso. Successivamente sono descritte in modo dettagliato il robot, le sue funzionalità e le sue caratteristiche meccaniche. Seguono l’analisi cinematica e l’analisi dinamica, suddivisa in due parti a causa della geometria cilindrica del manipolatore. Il sesto capitolo contiene il procedimento di mappatura e la logica con cui è stato scritto. Inoltre, vengono presentati i risultati dei test e le conseguenti considerazioni. Nel capitolo settimo è descritta la formulazione analitica delle sollecitazioni per le leve del robot e ne vengono raffigurati i risultati generali. L’ultimo capitolo è dedicato al bilanciamento statico con masse e molle.
Resumo:
Questa tesi riguarda la formula di Eulero per i poliedri: F - S + V = 2 dove F indica il numero di facce, S il numero di spigoli e V quello dei vertici di un poliedro. Nel primo capitolo tratteremo i risultati ottenuti da Cartesio: egli fu il primo a considerare non solo le caratteristiche geometriche ma anche metriche di un solido. Partendo dall'analogia con le figure piane, riuscì a ricavare importanti relazioni nei solidi convessi, riguardanti il numero e la misura degli angoli piani, degli angoli solidi e delle facce. Non arrivò mai alla formulazione conosciuta oggi ma ne intuì le caratteristiche topologiche, che però non dimostrò mai. Nel secondo capitolo invece ci occuperemo di ciò che scoprì Eulero. Il manoscritto contenente i risultati di Cartesio era scomparso e quindi questi non erano più conosciuti dai matematici; Eulero, in accordo con quanto avviene per i poligoni, desiderava ottenere un metodo di classificazione per i poliedri e si mise a studiare le loro proprietà. Oltre alla sua formula, in un primo articolo ricavò importanti relazioni, e in un secondo lavoro ne propose una dimostrazione. Riportiamo in breve anche un confronto tra il lavoro di Cartesio e quello di Eulero. Il terzo capitolo invece riguarda il metodo e il rigore nella formulazione di teoremi e dimostrazioni: I. Lakatos ne fa un esame critico nel libro "Dimostrazioni e Confutazioni - la logica della scoperta matematica", simulando una lezione dove a tema compaiono la Formula di Eulero e le sue dimostrazioni. Noi cercheremo di analizzare questo suo lavoro. Su questi tre autori e i loro lavori riportiamo alcune considerazioni biografiche e storiche che possono offrire interessanti spunti didattici: infatti nel quarto e ultimo capitolo ci occuperemo di alcune considerazioni didattiche a proposito della Formula. La struttura sarà quella di un'ipotetica lezione a studenti di Scuola Media Inferiore e utilizzeremo i risultati ottenuti nei precedenti capitoli e una personale esperienza di tirocinio.
Resumo:
Lo scopo del presente lavoro di tesi riguarda la caratterizzazione di un sensore ottico per la lettura di ematocrito e lo sviluppo dell’algoritmo di calibrazione del dispositivo. In altre parole, utilizzando dati ottenuti da una sessione di calibrazione opportunamente pianificata, l’algoritmo sviluppato ha lo scopo di restituire la curva di interpolazione dei dati che caratterizza il trasduttore. I passi principali del lavoro di tesi svolto sono sintetizzati nei punti seguenti: 1) Pianificazione della sessione di calibrazione necessaria per la raccolta dati e conseguente costruzione di un modello black box. Output: dato proveniente dal sensore ottico (lettura espressa in mV) Input: valore di ematocrito espresso in punti percentuali ( questa grandezza rappresenta il valore vero di volume ematico ed è stata ottenuta con un dispositivo di centrifugazione sanguigna) 2) Sviluppo dell’algoritmo L’algoritmo sviluppato e utilizzato offline ha lo scopo di restituire la curva di regressione dei dati. Macroscopicamente, il codice possiamo distinguerlo in due parti principali: 1- Acquisizione dei dati provenienti da sensore e stato di funzionamento della pompa bifasica 2- Normalizzazione dei dati ottenuti rispetto al valore di riferimento del sensore e implementazione dell’algoritmo di regressione. Lo step di normalizzazione dei dati è uno strumento statistico fondamentale per poter mettere a confronto grandezze non uniformi tra loro. Studi presenti, dimostrano inoltre un mutazione morfologica del globulo rosso in risposta a sollecitazioni meccaniche. Un ulteriore aspetto trattato nel presente lavoro, riguarda la velocità del flusso sanguigno determinato dalla pompa e come tale grandezza sia in grado di influenzare la lettura di ematocrito.
Resumo:
Analizzeremo dati di metilazione di diversi gruppi di pazienti, mettendoli in relazione con le loro età, intesa in senso anagrafico e biologico. Adatteremo metodi di regressione che sono già stati usati in altri studi, in particolare di tipo statistico, cercando di migliorarli e proveremo ad applicare a questi dati anche dei metodi nuovi, non solo di tipo statistico. La nostra analisi vuole essere innovativa soprattutto perché, oltre a guardare i dati in maniera locale attraverso lo studio della metilazione di particolari sequenze genetiche più o meno note per essere collegate all’invecchiamento, andremo a considerare i dati anche in maniera globale, analizzando le proprietà della distribuzione di tutti i valori di metilazione di un paziente attraverso la trasformata di Fourier.
Resumo:
Riconosciuto il problema dell’accesso ai farmaci come un problema di giustizia globale, la dissertazione, da un lato, è incentrata sullo studio dei diritti umani e sul diritto alla salute da una prospettiva giusfilosofica e, dall’altro, è finalizzata ad analizzare la disciplina brevettuale internazionale, sia approfondendo gli interessi realmente in gioco, sia studiando la struttura economica del brevetto stesso. Si è cercato quindi di guardare a tali interessi da una nuova prospettiva, ipotizzando una gerarchia di valori che sia completa e coerente con gli obiettivi che la dottrina, la giurisprudenza, nonché il diritto internazionale formalmente enunciano. Il progetto di ricerca vuole, in definitiva, arrivare a proporre nuove soluzioni giuridiche al problema dell’accesso ai farmaci. La dissertazione svolge pertanto uno studio critico della proposta di Thomas Pogge, di natura politica e giuridica e sorretta da istanze filosofiche, volta alla soluzione del problema dell’accesso ai farmaci, i.e. l’Health Impact Fund (HIF). Proposta che pone radicalmente in discussione, anche concretamente, il dogma del monopolio concesso con la privativa quale ricompensa per i costi di R&D sostenuti dai titolari dei brevetti e che pone, invece, l’accento sull’effettivo impatto sulla salute globale di ogni singola invenzione. Analizzandone approfonditamente gli aspetti più rilevanti, si passano poi in rassegna, criticamente, le proposte, alternative o di riforma, del sistema di proprietà intellettuale, volte al miglioramento dell’accesso ai farmaci; a tal proposito, si propone quindi una riforma transitoria della disciplina brevettuale, c.d. Trading Time for Space (TTS), che prevede un allungamento temporale dell’esclusiva brevettuale (Time) in cambio della vendita da parte del titolare della privativa del farmaco ad un prezzo accessibile nei Paesi in via di sviluppo (Space).
Resumo:
Sensors are devices that have shown widespread use, from the detection of gas molecules to the tracking of chemical signals in biological cells. Single walled carbon nanotube (SWCNT) and graphene based electrodes have demonstrated to be an excellent material for the development of electrochemical biosensors as they display remarkable electronic properties and the ability to act as individual nanoelectrodes, display an excellent low-dimensional charge carrier transport, and promote surface electrocatalysis. The present work aims at the preparation and investigation of electrochemically modified SWCNT and graphene-based electrodes for applications in the field of biosensors. We initially studied SWCNT films and focused on their topography and surface composition, electrical and optical properties. Parallel to SWCNTs, graphene films were investigated. Higher resistance values were obtained in comparison with nanotubes films. The electrochemical surface modification of both electrodes was investigated following two routes (i) the electrografting of aryl diazonium salts, and (ii) the electrophylic addition of 1, 3-benzodithiolylium tetrafluoroborate (BDYT). Both the qualitative and quantitative characteristics of the modified electrode surfaces were studied such as the degree of functionalization and their surface composition. The combination of Raman, X-ray photoelectron spectroscopy, atomic force microscopy, electrochemistry and other techniques, has demonstrated that selected precursors could be covalently anchored to the nanotubes and graphene-based electrode surfaces through novel carbon-carbon formation.