989 resultados para Tecnica de Fontan
Resumo:
Gli obbiettivi di questo lavoro di tesi risultano i seguenti: 1) Progettare e caratterizzare una tipologia di bundle bioriassorbibile attraverso la tecnica dell’elettrofilatura, composto da una miscela di acido poli-(L)lattico (PLLA) e collagene, che cerchi di mimare le proprietà meccaniche dei fascicoli di collagene tendineo umano ed equino; 2) Individuare una metodologia di assemblaggio multiscala dei bundle che permetta la creazione di uno scaffold in grado di mimare la struttura gerarchica di un tendine completo; 3) Applicare la filosofia traslazionale alla progettazione dello scaffold al fine di poter applicare tale tecnologia sia nell’ambito della medicina umana che in quella veterinaria, lavorando nel senso della medicina unica.
Resumo:
L'informatica e le sue tecnologie nella società moderna si riassumono spesso in un assioma fuorviante: essa, infatti, è comunemente legata al concetto che ciò che le tecnologie ci offrono può essere accessibile da tutti e sfruttato, all'interno della propria quotidianità, in modi più o meno semplici. Anche se quello appena descritto è un obiettivo fondamentale del mondo high-tech, occorre chiarire subito una questione: l'informatica non è semplicemente tutto ciò che le tecnologie ci offrono, perchè questo pensiero sommario fa presagire ad un'informatica "generalizzante"; l'informatica invece si divide tra molteplici ambiti, toccando diversi mondi inter-disciplinari. L'importanza di queste tecnologie nella società moderna deve spingerci a porre domande, riflessioni sul perchè l'informatica, in tutte le sue sfaccettature, negli ultimi decenni, ha portato una vera e propria rivoluzione nelle nostre vite, nelle nostre abitudini, e non di meno importanza, nel nostro contesto lavorativo e aziendale, e non ha alcuna intenzione (per fortuna) di fermare le proprie possibilità di sviluppo. In questo trattato ci occuperemo di definire una particolare tecnica moderna relativa a una parte di quel mondo complesso che viene definito come "Intelligenza Artificiale". L'intelligenza Artificiale (IA) è una scienza che si è sviluppata proprio con il progresso tecnologico e dei suoi potenti strumenti, che non sono solo informatici, ma soprattutto teorico-matematici (probabilistici) e anche inerenti l'ambito Elettronico-TLC (basti pensare alla Robotica): ecco l'interdisciplinarità. Concetto che è fondamentale per poi affrontare il nocciolo del percorso presentato nel secondo capitolo del documento proposto: i due approcci possibili, semantico e probabilistico, verso l'elaborazione del linguaggio naturale(NLP), branca fondamentale di IA. Per quanto darò un buono spazio nella tesi a come le tecniche di NLP semantiche e statistiche si siano sviluppate nel tempo, verrà prestata attenzione soprattutto ai concetti fondamentali di questi ambiti, perché, come già detto sopra, anche se è fondamentale farsi delle basi e conoscere l'evoluzione di queste tecnologie nel tempo, l'obiettivo è quello a un certo punto di staccarsi e studiare il livello tecnologico moderno inerenti a questo mondo, con uno sguardo anche al domani: in questo caso, la Sentiment Analysis (capitolo 3). Sentiment Analysis (SA) è una tecnica di NLP che si sta definendo proprio ai giorni nostri, tecnica che si è sviluppata soprattutto in relazione all'esplosione del fenomeno Social Network, che viviamo e "tocchiamo" costantemente. L'approfondimento centrale della tesi verterà sulla presentazione di alcuni esempi moderni e modelli di SA che riguardano entrambi gli approcci (statistico e semantico), con particolare attenzione a modelli di SA che sono stati proposti per Twitter in questi ultimi anni, valutando quali sono gli scenari che propone questa tecnica moderna, e a quali conseguenze contestuali (e non) potrebbe portare questa particolare tecnica.
Resumo:
L’argomento trattato in questo elaborato riguarda una nuova tecnologia che si sta sviluppando nel settore dell’ingegneria dei tessuti: il Bioprinting. Tale rivoluzionario approccio completamente automatizzato, consiste nell’elaborazione automatica delle immagini CAD (Computer-Aided Design) e nella fabbricazione assistita CAM (Computer-Aided Manufacturing) al fine di ricreare tessuti ed organi. Nel seguito verrà data una definizione del processo, verranno analizzate le varie fasi di laborazione, le tecniche ed i materiali utilizzati. Verranno infine riportati studi riguardanti alcune applicazioni della tecnica, quali la realizzazione di vasi sanguigni, cartilagine e pelle.
Resumo:
L'obiettivo di questo studio è quello di mettere in luce i diversi fattori che, negli ultimi anni, hanno portato ad un impiego sempre più diffuso della PET in ambito clinico, in Italia e all'estero. La recente integrazione delle informazioni funzionali della PET con le informazioni morfologiche di una TC, mediante tomografi ibridi PET/CT, ha radicalmente cambiato l’approccio alla stadiazione e al follow-up dei pazienti, rendendo questa tecnica una delle massime espressioni della moderna diagnostica per immagini, al giorno d'oggi utilizzata principalmente in campo oncologico. Nei primi capitoli, dopo un breve richiamo alla struttura della materia, ai concetti di radiazione e decadimento radioattivo, si analizzano le apparecchiature e i principi di funzionamento della tecnica PET/TC. Successivamente, nel capitolo 4 sono illustrati i diversi tipi di radiofarmaci e le loro applicazioni, con un’attenzione particolare al PSMA, impiegato principalmente nei tumori alla prostata, reni, tiroide e mammella. Proprio alla cura e alla diagnosi del tumore alla prostata è dedicato il capitolo 5, con un breve confronto tra l’ormai accreditata PET/CT con 18F-Colina e l’innovativa Ga-PSMA PET/CT. Nel capitolo 6 si prendono in considerazione le procedure e i protocolli da seguire durante un esame PET/TC, le misure di preparazione, prevenzione e le precauzioni che pazienti e personale sanitario devono osservare. Nel capitolo 7, infine, un breve cenno alle ultime innovazioni tecnologiche: imaging ibrido PET/MRI e fotomoltiplicatori SiPM. Le fonti bibliografiche citate constano principalmente di articoli in lingua inglese pubblicati sul portale PubMed. Parte della documentazione relativa alla progettazione dell'apparecchiatura PET/CT e al suo utilizzo è, invece, stata fornita da personale dell'arcispedale Santa Maria Nuova di Reggio Emilia.
Resumo:
Nei primi vent’anni, la ricerca in ambito fotovoltaico si è focalizzata sull’evoluzione di quelle tecnologie associate alla semplice cella ed al sistema intero, per offrire miglioramenti con particolare riguardo al fronte dell’efficienza. Negli ultimi decenni, lo studio sull’energia rinnovabile ha ampliato i propri confini, sino a quella branca denominata elettronica di potenza, che ne permette la conversione e lo sfruttamento da parte dell’utente. L’elaborato si propone quindi di apportare un contributo verso tale direzione, teorico piuttosto che pratico, esaminando dapprima il mondo che effettivamente circonda l’impianto fotovoltaico grid-connected e successivamente ponderando e pianificando le scelte che conseguono dall’analisi letteraria. Particolare attenzione sarà rivolta al concetto di multilivello relativo agli inverter e agli aspetti che ne comportano il largo utilizzo nell’elettronica di potenza. Si stima che i primi brevetti risalgano a circa trent’anni orsono e uno di questi, tracciabile, riguarderebbe la configurazione a cascata di full-bridge, alimentati separatamente in DC, per ottenere a valle una scala di tensioni AC. Per mezzo di manipolazioni, nascerà in seguito il diode-clamped, attuale predecessore del Neutral Point Clamped T-Type Inverter. Si introdurranno pertanto le principali caratteristiche che contraddistinguono il convertitore, peculiare riguardo per la configurazione single leg nonché trifase. Ardua sarà la scelta sulla tecnica di controllo dell’inverter, sia per quanto concerne la fase simulativa che quella realizzativa, in quanto il dispositivo è indubbiamente considerato innovativo nel proprio campo di appartenenza. Convalidando la letteratura per mezzo di opportune simulazioni, si potrà procedere alla progettazione e quindi all’assemblaggio della scheda che effettivamente include l’inverter. Il lavoro implicherà numerose prove, effettuate in svariate condizioni di funzionamento, al fine di sostenere le conclusioni teoriche.
Uso di 3d slicer in ambito di ricerca clinica: Una revisione critica delle esperienze di riferimento
Resumo:
Negli ultimi 20 anni il progresso tecnologico ha segnato un profondo cambiamento in svariati ambiti tra i quali quello della Sanità in cui hanno preso vita apparecchiature diagnostiche, cosiddette “digitali native”, come la Tomografia Computerizzata (TC), la Tomografia ad Emissione di Positroni (PET), la Risonanza Magnetica Nucleare (RMN), l’Ecografia. A differenza delle diagnostiche tradizionali, come ad esempio la Radiologia convenzionale, che forniscono come risultato di un esame un’immagine bidimensionale ricavata dalla semplice proiezione di una struttura anatomica indagata, questi nuovi sistemi sono in grado di generare scansioni tomografiche. Disporre di immagini digitali contenenti dati tridimensionali rappresenta un enorme passo in avanti per l’indagine diagnostica, ma per poterne estrapolare e sfruttare i preziosi contenuti informativi occorrono i giusti strumenti che, data la natura delle acquisizioni, vanno ricercati nel mondo dell’Informatica. A tal proposito il seguente elaborato si propone di presentare un software package per la visualizzazione, l’analisi e l’elaborazione di medical images chiamato 3D Slicer che rappresenta un potente strumento di cui potersi avvalere in differenti contesti medici. Nel primo capitolo verrà proposta un’introduzione al programma; Seguirà il secondo capitolo con una trattazione più tecnica in cui verranno approfondite alcune funzionalità basilari del software e altre più specifiche; Infine nel terzo capitolo verrà preso in esame un intervento di endoprotesica vascolare e come grazie al supporto di innovativi sistemi di navigazione chirurgica sia possibile avvalersi di 3D Slicer anche in ambiente intraoperatorio
Resumo:
La tesi è dedicata allo studio delle rappresentazioni delle algebre di Lie semisemplici su un campo algebricamente chiuso di caratteristica zero. Mediante il teorema di Weyl sulla completa riducibilità, ogni rappresentazione di dimensione finita di una algebra di Lie semisemplice è scrivibile come somma diretta di sottorappresentazioni irriducibili. Questo permette di poter concentrare l'attenzione sullo studio delle rappresentazioni irriducibili. Inoltre, mediante il ricorso all'algebra inviluppante universale si ottiene che ogni rappresentazione irriducibile è una rappresentazione di peso più alto. Perciò è naturale chiedersi quando una rappresentazione di peso più alto sia di dimensione finita ottenendo che condizione necessaria e sufficiente perché una rappresentazione di peso più alto sia di dimensione finita è che il peso più alto sia dominante. Immediata è quindi l'applicazione della teoria delle rappresentazioni delle algebre di Lie semisemplici nello studio delle superalgebre di Lie, in quanto costituite da un'algebra di Lie e da una sua rappresentazione, dove viene utilizzata la tecnica della Z-graduazione che viene utilizzata per la prima volta da Victor Kac nello studio delle algebre di Lie di dimensione infinita nell'articolo ''Simple irreducible graded Lie algebras of finite growth'' del 1968.
Resumo:
L'esperimento LHCb è stato progettato per eseguire misure di altissima precisione nel settore della fisica dei quark pesanti al Large Hadron Collidere del CERN. Sfruttando l'alta sezione d'urto di produzione di charm nelle interazioni protone-protone ad LHC e utilizzando la statistica raccolta durante il RUN-1, corrispondente ad una luminosità integrata di 3 fb{-1}, l'esperimento LHCb ha realizzato le misure più precise al mondo in questo settore. In particolare i decadimenti del mesone D0 in due corpi carichi senza leptoni nello stato finale hanno permesso di realizzare misure di violazione di CP} che raggiungono precisioni inferiori al 0.1 %. Da pochi mesi LHCb ha iniziato la seconda fase di presa dati, chiamata RUN-2, raccogliendo dati dalle interazioni protone-protone ad una energia nel centro di massa di sqrt{s}=13 TeV, superiore a quella del RUN-1. Le misure attuali di violazione di CP nel settore del charm, sono consistenti con l'ipotesi di non violazione. Il Modello Standard, pur con grandi incertezze teoriche, prevede una violazione di CP molto piccola, pertanto per verificare o meno l'esistenza di taleviolazione, sarà necessario sfruttare al massimo la statistica che verrà raccolta durante il RUN-2, ottimizzando gli algoritmi di selezione dei canali di interesse. In questa tesi verrà presentata uno studio preliminare che ha lo scopo di ottimizzare, mediante una tecnica di analisi multivariata, la selezione dei decadimenti D^*pm-> D0(K+K-)pi_s^pm e D^*pm}-> D0(pi+pi-)pi_s^pm} in previsione della prossima presa dati.
Resumo:
In questo lavoro viene presentato l'utilizzo di simulatori quantistici nello studio di sistemi a molte componenti. Dall'idea iniziale di Feynman della intersimulazione tra sistemi quantistici in questi anni si è sempre più sviluppata la tecnica sperimentale necessaria a creare sistemi di atomi in reticoli ottici ben controllati, nei quali riprodurre il comportamento di sistemi di natura diversa, ottenendo risultati promettenti nell'indagine di situazioni non trattabili analiticamente o numericamente. Tra questi, la conduzione di elettroni in materiali disordinati è ancora un problema aperto. In questa tesi nello specifico sono trattati i modelli di Anderson e di André-Aubry, i quali prevedono una transizione da stati estesi a localizzati in presenza di disordine nel materiale. I due modelli sono stati investigati numericamente su reticoli monodimensionali e i risultati confrontati con una realizzazione sperimentale realizzata con atomi freddi.
Resumo:
Questo elaborato tratta alcuni dei più noti framework di programmazione avanzata per la costruzione di piattaforme distribuite che utilizzano il linguaggio di programmazione avanzata Scala come fulcro principale per realizzare i propri protocolli. Le tecnologie analizzate saranno Finagle, Akka, Kafka e Storm. Per ciascuna di esse sarà presente una sezione di introduzione, documentazione e un esempio di codice. L’obiettivo dell’elaborato è l’analisi approfondita delle tecnologie sopraelencate per comprendere a fondo le tecniche di programmazione che le rendono uniche nel loro genere. Questo percorso fornisce una chiave di lettura obiettiva e chiara di ciascuna tecnologia, sarà cura del lettore proseguire nello studio individuale della specifica tecnica che ritiene essere più efficace o interessante. Alla fine della tesi è presente un aperto dibattito in cui le quattro tecnologie vengono messe a confronto e giudicate in base alle loro caratteristiche. Inoltre vengono ipotizzate realtà in cui si possa trovare collaborazione tra i vari framework ed, infine, è presente una mia personale opinione basata sulla mia esperienza in merito.
Resumo:
Questa tesi si prefigge lo scopo di rendere possibile la comprensione ad un pubblico italiano dello spettacolo teatrale in lingua slovacca Michelangelo – Freska o ceste umelca (Michelangelo – Affresco sul cammino di un artista) attraverso la sopratitolazione. Il regista della rappresentazione teatrale, Peter Weinciller, oltre a dirigere la compagnia Teatro Colorato sul territorio slovacco, è riuscito a portare le opere di successo anche all’estero, per cui si è reso necessario l’ausilio di un mezzo che potesse renderlo possibile. Per poter compiere questa mediazione, ci si è avvalsi dei sopratitoli, uno strumento di recente introduzione nel mondo della traduzione audiovisiva. Questa tecnica, che deriva dalla più conosciuta sottotitolazione, permette di rendere accessibile ad un pubblico mondiale rappresentazioni teatrali in lingua originale. Durante il lavoro si è cercato di capire a fondo il testo di partenza per poter rendere nella miglior maniera possibile il contenuto e le emozioni che include e che intende suscitare. Nonostante le difficoltà incontrate nella traduzione dal punto di vista linguistico, si è cercato di rendere fruibile al pubblico la migliore mediazione possibile dalla lingua slovacca, essendo comunque consapevoli che il soggetto e la collocazione temporale e spaziale dell’opera abbiano avvantaggiato un pubblico italiano. In conclusione, si è riusciti a proporre un lavoro che ha permesso una perfetta mediazione di uno spettacolo che altrimenti non avrebbe avuto la possibilità di essere rappresentato su territorio non slovacco.
Resumo:
In questa tesi sono stati simulati i modelli circuitali relativi alle tecniche di estrazione SECE, Q-SECE e SSHI. Sono state graficate e analizzate le caratteristiche di trasferimento di potenza. Tramite simulazioni LTspice, è stata calcolata l'energia estratta con tecnica SECE e Q-SECE ed è stato ricavato un miglioramento delle prestazioni di energia di +30% con la tecnica Q-SECE. Un'analisi simile è stata fatta per il calcolo dell'energia in uscita anche per il modello SSHI-parallel.
Resumo:
L'elettromiografia di superficie (sEMG) è la tecnica non invasiva che si occupa della misura e analisi dell'attività elettrica associata alla contrazione del muscolo scheletrico, che viene prelevata tramite elettrodi superficiali. Si vuole dimostrare come questa metodologia rappresenti un valido strumento di monitoraggio quantitativo da affiancare ad un trattamento di elettroterapia. Si sono effettuate rilevazioni elettromiografiche su sette pazienti presso centri fisioterapici e si sono estratti una serie di parametri numerici dal segnale elettromiografico (Media Lavoro, Media Riposo, Deviazione Lavoro, Deviazione Riposo, Tempo Inizio, Tempo Rilassamento, MVC, IEMG) in grado di fornire una misura oggettiva dell'andamento del percorso di riabilitazione. Con il test statistico ANOVA per misure ripetute si è visto come alcuni di questi parametri subiscono miglioramenti statisticamente significativi in seguito alla terapia. Dopo aver messo in evidenza l'impossibilità di estrarre il segnale grezzo, quindi effettuare un'analisi in frequenza, si è proposta un'elaborazione completa del segnale elettromiografico a partire da un tracciato grezzo acquisito su un soggetto sano, mostrando in particolare la possibilità di calcolare ulteriori parametri in frequenza. Si è inoltre sottolineata la necessità di ripetere uno studio analogo su un gruppo di soggetti superiore e che preveda il monitoraggio dell'impedenza di contatto elettrodo-cute.
Resumo:
I Software di editing o manipolazione delle immagini sono divenuti facilmente disponibili nel mercato e sempre più facili da utilizzare. Attraverso questi potenti tool di editing è consentito fare delle modifiche al contenuto delle immagini digitali e violarne l'autenticità. Oggigiorno le immagini digitali vengono utilizzate in maniera sempre più diffusa anche in ambito legislativo quindi comprovarne l'autenticità e veridicità è diventato un ambito molto rilevante. In questa tesi vengono studiati alcuni approcci presenti in letteratura per l'individuazione di alterazioni nelle immagini digitali. In particolare modo è stata approfondita la tecnica di alterazione digitale definita Morphing che, utilizzata in fotografie per il rilascio di documenti di identità di viaggio con elementi biometrici, potrebbe comportare dei rischi per la sicurezza. Il lavoro di questa tesi include, infine, la verifica del comportamento di alcuni Software in commercio in presenza di immagini campione soggette a diversi tipi di alterazione.
Resumo:
Descrizione delle caratteristiche della manifattura additiva e delle principali tecniche di stampa 3d. Esempio di impiego di questa tecnica in ambito biomedico per la fabbricazione di prototipi di dispositivi pronti all'uso utilizzabili per test e studi ulteriori.