987 resultados para Interfaccia, Risultati elettorali, Accessibile
Resumo:
L'obiettivo della tesi è diradare, almeno parzialmente, le incertezze che potrebbero essere presenti nella caratterizzazione a compressione di materiali compositi. Per quanto concerne la compressione, in un primo momento, non essendo ritenuta una caratteristica troppo rilevante, si considerava che il materiale composito avesse proprietà equivalenti a quelle in trazione. Solo successivamente, dai primi anni ’70, si sono iniziate ad indagare in modo approfondito e mirato le proprietà meccaniche a compressione di tali materiali. Si sono sviluppati e normati nel tempo vari metodi che vengono classificati in base al modo di applicazione del carico sul provino. Ci si è quindi proposti, basandosi anche sulle richieste mosse dalla Scuderia Toro Rosso di Faenza, di determinare, dopo aver analizzato tutti i vantaggi e gli svantaggi di ciascuna metodologia, quella migliore a cui attenersi per tutte le prove di compressione che seguiranno. A tale scopo, dopo una attenta e approfondita analisi dei vari metodi di prova, si è scelto di utilizzare il Combined Loading Compression (CLC) Test Fixture: attrezzatura leggera e molto compatta, che dimostra una affidabilità dei risultati superiore alle altre tecnologie. Si è, inoltre, deciso di testare laminati non unidirezionali, evitando così molte problematiche quali, ad esempio, quelle dovute all’utilizzo di tabs o al possibile insorgere di microbuckling delle fibre. Si è risaliti, poi, al valore di resistenza a compressione della lamina unidirezionale attraverso il metodo di calcolo indiretto del Back-Out Factor (BF). Di tale metodo si sono indagate le basi teoriche, a partire dalla teoria classica dei laminati, e si sono ricavate le formule necessarie per l'applicazione pratica sperimentale. Per quanto riguarda la campagna sperimentale, svolta presso i laboratori ENEA di Faenza – Unità Tecnica Tecnologie dei Materiali Faenza (UTTMATF), sono stati realizzati 6 laminati di materiale composito, ognuno con differente sequenza di laminazione e percentuale di fibre nelle diverse direzioni. Due laminati sono stati ottenuti impilando lamine unidirezionali preimpregnate, in modo da ottenere una configurazione cross-ply (0°\90°), due in configurazione angle-ply (0°\90°\±45°) e due materiali unidirezionali (0° e 90°). Da questi 6 laminati sono stati ricavati 12/13 provini ciascuno. I provini cross-ply e angle-ply sono stati testati per ricavarne la resistenza a compressione, da cui, poi, risalire a quella della lamina unidirezionale a 0° mediante il BF. Dal confronto dei risultati ottenuti attraverso l'applicazione combinata di CLC e Back-Out Factor, con i dati riportati nel datasheet ufficiale, si è avuta conferma dell'affidabilità della metodologia scelta. Per quanto concerne l'elaborazione dei dati ricavati dalle prove sperimentali, è stato utilizzato un opportuno programma realizzato con il software Matlab. Con l'estensione GUI, poi, è stata creata un'interfaccia grafica per agevolare la comprensione delle fasi di elaborazione anche ad un utente non esperto.
Resumo:
Uno dei principali passi della catena di produzione di circuiti integrati è quello di testare e valutare una serie di chip campione per verificare che essi rientrino nei valori e nelle specifiche scelte. Si tratta di un passaggio molto importante che determina le caratteristiche del prodotto nella realtà, mostrando le proprie capacità o i propri limiti, permettendo così di valutare un’eventuale produzione su larga scala. Ci permette inoltre di stimare quali dei chip rispetto agli altri presi in esame è migliore in alcuni aspetti, oppure quale risulta più lontano dalle specifiche volute. Il lavoro alle spalle di questa tesi è proprio questo: si è cercato di caratterizzare un microchip chiamato Carbonio, nato nei laboratori della II Facoltà di Ingegneria di Cesena, creando un banco di misura automatico, tramite l’ausilio del software Labview e di una scheda hardware realizzata ad hoc, che desse la possibilità di eseguire alcuni test consecutivi su ogni singolo circuito integrato in modo da caratterizzarlo estrapolando tutte le informazioni cercate e verificandone il funzionamento. Tutti i valori estratti sono stati poi sottoposti a una breve analisi statistica per stabilire per esempio quale circuito integrato fosse meno immune ai disturbi dovuti al rumore elettrico oppure per eseguire un’indagine al fine di vedere come i valori dei parametri scelti si disponessero rispetto ai lori rispettivi valori medi.
Resumo:
L’obiettivo di questa tesi è quello di estendere l’interfaccia grafica di tuProlog nella versione per Android, il più diffuso sistema operativo per tablet e smartphone. TuProlog è un’ interprete Prolog interamente scritto in java, leggero e open–source. L’applicazione è disponibile sotto forma di archivio JAR eseguibile e può essere utilizzato tramite un’interfaccia a riga di comando, nella versione Java, o per mezzo di interfacce grafiche negli ambienti Java, .NET e Android. La versione per Android supporta pienamente Java e la maggior parte delle librerie dell’applicativo per JVM. Lo sviluppo di applicazioni per dispositivi mobile, però, limita lo sviluppatore in termini di complessità delle elaborazioni effettuabili dal programma e comprensibilità dell’interfaccia grafica; per questi e altri motivi, la struttura dell’applicativo in versione Android, fatta eccezione per il core Prolog, è diversa dalle versioni per altri ambienti. L’applicazione, giunta ora alla versione 2.7.2, manca della possibilità di input da console in tutte le versioni ad interfaccia grafica. Scopo di questa tesi è quindi integrare tale funzionalità, inserendola all’interno del contesto applicativo senza modificare il normale flusso delle operazioni, intervenendo in modo mirato, il meno invasivo possibile e garantendo l’espandibilità della modifica ad estensioni future.
Resumo:
L’ictus è un importante problema di salute pubblica, è causa di morte e disabilità nella popolazione anziana. La necessità di strategie di prevenzione secondaria e terziaria per migliorare il funzionamento post-ictus e prevenire o ritardare altre condizioni disabilitanti, ha portato l’Italia a sviluppare un intervento di Attività Fisica Adattata (AFA) per l’ictus, che permettesse di migliorare gli esiti della riabilitazione. Obiettivo dello studio è di valutare se l’AFA unita all’Educazione Terapeutica (ET), rispetto al trattamento riabilitativo standard, migliora il funzionamento e la qualità di vita in pazienti con ictus. Studio clinico non randomizzato, in cui sono stati valutati 229 pazienti in riabilitazione post-ictus, 126 nel gruppo sperimentale (AFA+ET) e 103 nel gruppo di controllo. I pazienti sono stati valutati al baseline, a 4 e a 12 mesi di follow-up. Le misure di esito sono il cambiamento a 4 mesi di follow-up (che corrisponde a 2 mesi post-intervento nel gruppo sperimentale) di: distanza percorsa, Berg Balance Scale, Short Physical Performance Battery, e Motricity Index. Le variabili misurate a 4 e a 12 mesi di follow-up sono: Barthel Index, Geriatric Depression Scale, SF-12 e Caregiver Strain Index. La distanza percorsa, la performance fisica, l’equilibrio e il punteggio della componente fisica della qualità di vita sono migliorate a 4 mesi nel gruppo AFA+ET e rimasti stabili nel gruppo di controllo. A 12 mesi di follow-up, il gruppo AFA+ET ottiene un cambiamento maggiore, rispetto al gruppo di controllo, nell’abilità di svolgimento delle attività giornaliere e nella qualità di vita. Infine il gruppo AFA+ET riporta, nell’ultimo anno, un minor numero di fratture e minor ricorso a visite riabilitative rispetto al gruppo di controllo. I risultati confermano che l’AFA+ET è efficace nel migliorare le condizioni cliniche di pazienti con ictus e che gli effetti, soprattutto sulla riabilitazione fisica, sono mantenuti anche a lungo termine.
Resumo:
Analisi dell'installazione di un banco prova di trazione su funi in una azienda, della sua messa a punto e di un primo collaudo svolto.
Resumo:
The goal of this thesis was the study of the cement-bone interface in the tibial component of a cemented total knee prosthesis. One of the things you can see in specimens after in vivo service is that resorption of bone occurs in the interdigitated region between bone and cement. A stress shielding effect was investigated as a cause to explain bone resorption. Stress shielding occurs when bone is loaded less than physiological and therefore it starts remodeling according to the new loading conditions. µCT images were used to obtain 3D models of the bone and cement structure and a Finite Element Analysis was used to simulate different kind of loads. Resorption was also simulated by performing erosion operations in the interdigitated bone region. Finally, 4 models were simulated: bone (trabecular), bone with cement, and two models of bone with cement after progressive erosions of the bone. Compression, tension and shear test were simulated for each model in displacement-control until 2% of strain. The results show how the principal strain and Von Mises stress decrease after adding the cement on the structure and after the erosion operations. These results show that a stress shielding effect does occur and rises after resorption starts.
Resumo:
La maggior parte dei moderni dispositivi e macchinari, sia ad uso civile che industriale, utilizzano sistemi elettronici che ne supervisionano e ne controllano il funzionamento. All’ interno di questi apparati è quasi certamente impiegato un sistema di controllo digitale che svolge, anche grazie alle potenzialità oggi raggiunte, compiti che fino a non troppi anni or sono erano dominio dell’ elettronica analogica, si pensi ad esempio ai DSP (Digital Signal Processor) oggi impiegati nei sistemi di telecomunicazione. Nonostante l'elevata potenza di calcolo raggiunta dagli odierni microprocessori/microcontrollori/DSP dedicati alle applicazioni embedded, quando è necessario eseguire elaborazioni complesse, time-critical, dovendo razionalizzare e ottimizzare le risorse a disposizione, come ad esempio spazio consumo e costi, la scelta ricade inevitabilmente sui dispositivi FPGA. I dispositivi FPGA, acronimo di Field Programmable Gate Array, sono circuiti integrati a larga scala d’integrazione (VLSI, Very Large Scale of Integration) che possono essere configurati via software dopo la produzione. Si differenziano dai microprocessori poiché essi non eseguono un software, scritto ad esempio in linguaggio assembly oppure in linguaggio C. Sono invece dotati di risorse hardware generiche e configurabili (denominate Configurable Logic Block oppure Logic Array Block, a seconda del produttore del dispositivo) che per mezzo di un opportuno linguaggio, detto di descrizione hardware (HDL, Hardware Description Language) vengono interconnesse in modo da costituire circuiti logici digitali. In questo modo, è possibile far assumere a questi dispositivi funzionalità logiche qualsiasi, non previste in origine dal progettista del circuito integrato ma realizzabili grazie alle strutture programmabili in esso presenti.
Resumo:
Nella seguente tesi si è cercato di sviluppare uno strumento per aiutare il progettista nella impostazione del progetto concettuale dei dirigibili, sia tradizionali, che da alta quota con propulsione elettrica e pannelli fotovoltaici. In particolare, a partire dalle specifiche di missione è possibile avere in modo veloce una stima del volume di un dirigibile ed una stima dei pesi dei vari componenti. Inoltre, l’ambiente grafico permette di calcolare in modo semplice i momenti di inerzia del corpo e di visualizzare in modo semplice e senza l’utilizzo di un sistema CAD un’anteprima tridimensionale del modello.
Resumo:
Al fine di migliorare le tecniche di coltura cellulare in vitro, sistemi a bioreattore sono sempre maggiormente utilizzati, e.g. ingegnerizzazione del tessuto osseo. Spinner Flasks, bioreattori rotanti e sistemi a perfusione di flusso sono oggi utilizzati e ogni sistema ha vantaggi e svantaggi. Questo lavoro descrive lo sviluppo di un semplice bioreattore a perfusione ed i risultati della metodologia di valutazione impiegata, basata su analisi μCT a raggi-X e tecniche di modellizzazione 3D. Un semplice bioreattore con generatore di flusso ad elica è stato progettato e costruito con l'obiettivo di migliorare la differenziazione di cellule staminali mesenchimali, provenienti da embrioni umani (HES-MP); le cellule sono state seminate su scaffold porosi di titanio che garantiscono una migliore adesione della matrice mineralizzata. Attraverso un microcontrollore e un'interfaccia grafica, il bioreattore genera tre tipi di flusso: in avanti (senso orario), indietro (senso antiorario) e una modalità a impulsi (avanti e indietro). Un semplice modello è stato realizzato per stimare la pressione generata dal flusso negli scaffolds (3•10-2 Pa). Sono stati comparati tre scaffolds in coltura statica e tre all’interno del bioreattore. Questi sono stati incubati per 21 giorni, fissati in paraformaldehyde (4% w/v) e sono stati soggetti ad acquisizione attraverso μCT a raggi-X. Le immagini ottenute sono state poi elaborate mediante un software di imaging 3D; è stato effettuato un sezionamento “virtuale” degli scaffolds, al fine di ottenere la distribuzione del gradiente dei valori di grigio di campioni estratti dalla superficie e dall’interno di essi. Tale distribuzione serve per distinguere le varie componenti presenti nelle immagini; in questo caso gli scaffolds dall’ipotetica matrice cellulare. I risultati mostrano che sia sulla superficie che internamente agli scaffolds, mantenuti nel bioreattore, è presente una maggiore densità dei gradienti dei valori di grigio ciò suggerisce un migliore deposito della matrice mineralizzata. Gli insegnamenti provenienti dalla realizzazione di questo bioreattore saranno utilizzati per progettare una nuova versione che renderà possibile l’analisi di più di 20 scaffolds contemporaneamente, permettendo un’ulteriore analisi della qualità della differenziazione usando metodologie molecolari ed istochimiche.
Resumo:
È impossibile implementare sorgenti autenticamente casuali su hardware digitale. Quindi, storicamente, si è fatto ampio uso di generatori di numeri pseudo-casuali, evitando così i costi necessari per la progettazione di hardware analogico dedicato. Tuttavia, le sorgenti pseudo-casuali hanno proprietà (riproducibilità e periodicità) che si trasformano in vulnerabilità, nel caso in cui vengano adottate in sistemi di sicurezza informatica e all’interno di algoritmi crittografici. Oggi la richiesta di generatori di numeri autenticamente casuali è ai suoi massimi storici. Alcuni importanti attori dell’ICT sviluppato proprie soluzioni dedicate, ma queste sono disponibili solo sui sistemi moderni e di fascia elevata. È quindi di grande attualità rendere fruibili generatori autenticamente casuali per sistemi già esistenti o a basso costo. Per garantire sicurezza e al tempo stesso contenere i costi di progetto è opportuno pensare ad architetture che consentano di riusare parti analogiche già disponibili. Particolarmente interessanti risultano alcune architetture che, grazie all’utilizzo di dinamiche caotiche, consentono di basare buona parte della catena analogica di elaborazione su ADC. Infatti, tali blocchi sono ampiamente fruibili in forma integrata su architetture programmabili e microcontrollori. In questo lavoro, si propone un’implementazione a basso costo ed elevata flessibilità di un architettura basata su un ADC, inizialmente concepita all’Università di Bologna. La riduzione di costo viene ottenuta sfruttando il convertitore già presente all’interno di un microcontrollore. L’elevata flessibilità deriva dal fatto che il microcontrollore prescelto mette a disposizione una varietà di interfacce di comunicazione, tra cui quella USB, con la quale è possibile rendere facilmente fruibili i numeri casuali generati. Quindi, l’intero apparato comprende solo un microcontrollore e una minima catena analogica di elaborazione esterna e può essere interfacciato con estrema facilità ad elaboratori elettronici o sistemi embedded. La qualità della proposta, in termini di statistica delle sequenze casuali generate, è stata validata sfruttando i test standardizzati dall’U.S. NIST.
Resumo:
I sarcomi dei tessuti molli sono un gruppo eterogeneo di tumori maligni di origine mesenchimale che si sviluppa nel tessuto connettivo. Il controllo locale mediante escissione chirurgica con margini ampi associato alla radioterapia e chemioterapia è il trattamento di scelta. Negli ultimi anni le nuove scoperte in campo biologico e clinico hanno sottolineato che i diversi istotipi posso essere considerati come entità distinte con differente sensibilità alla chemioterapia pertanto questa deve essere somministrata come trattamento specifico basato sull’istologia. Tra Ottobre 2011 e Settembre 2014 sono stati inclusi nel protocollo di studio 49 pazienti con sarcomi dei tessuti molli di età media alla diagnosi 48 anni (range: 20 - 68 anni). I tumori primitivi più frequenti sono: liposarcoma mixoide, sarcoma pleomorfo indifferenziato, sarcoma sinoviale. Le sedi di insorgenza del tumore erano più frequentemente la coscia, il braccio e la gamba. 35 pazienti sono stati arruolati nel Braccio A e trattati con chemioterapia standard con epirubicina+ifosfamide, 14 sono stati arruolati nel Braccio B e trattati con chemioterapia basata sull’istotipo. I dati emersi da questo studio suggeriscono che le recidive locali sembrano essere correlate favorevolmente alla radioterapia ed ai margini chirurgici adeguati mentre la chemioterapia non sembra avere un ruolo sul controllo locale della malattia. Anche se l'uso di terapie mirate, che hanno profili di tossicità più favorevoli e sono quindi meglio tollerate rispetto ai farmaci citotossici è promettente, tali farmaci hanno prodotto finora risultati limitati. Apparentemente l’insieme delle terapie mirate non sembra funzionare meglio delle terapie standard, tuttavia esse devono essere esaminate per singolo istotipo e confrontate con il braccio di controllo. Sono necessari studi randomizzati controllati su ampie casistiche per valutare l’efficacia delle terapie mirate sui differenti istotipi di sarcomi dei tessuti molli. Inoltre, nuovi farmaci, nuove combinazioni e nuovi schemi posologici dovranno essere esaminati per ottimizzare la terapia.
Resumo:
L'energia solare rientra nel gruppo delle energie rinnovabili, ovvero che provengono da una fonte il cui utilizzo attuale non ne pregiudica la disponibilità nel futuro. L'energia solare ha molti vantaggi, poiché è inesauribile ed è una risorsa d'immediata disponibilità perché giunge attraverso i raggi del sole. La conversione fotovoltaica sfrutta il meccanismo di generazione di carica elettrica prodotto dall'interazione della radiazione luminosa su di un materiale semiconduttore. La necessità di creare energia riducendo al minimo l'impatto ambientale ed il contemporaneo aumento del prezzo di fonti fossili come ad esempio il petrolio ed il carbone (senza trascurare il fatto che le riserve di essi sono, di fatto, esauribili) ha portato un aumento considerevole della produzione di energia elettrica tramite conversione fotovoltaica. Allo stato attuale dell'economia e dei mercati, sebbene il settore fotovoltaico sia in forte crescita, non è esente da un parametro che ne descrive le caratteristiche economiche ed energetiche, il cosiddetto rapporto costo/efficienza. Per efficienza, si intende la quantità di energia elettrica prodotta rispetto alla potenza solare incidente per irraggiamento, mentre per costo si intende quello sostenuto per la costruzione della cella. Ridurre il rapporto costo/efficienza equivale a cercare di ottenere un'efficienza maggiore mantenendo inalterati i costi, oppure raggiungere una medio-alta efficienza ma ridurre in maniera significativa la spesa di fabbricazione. Quindi, nasce la necessità di studiare e sviluppare tecnologie di celle solari all'avanguardia, che adottino accorgimenti tecnologici tali per cui, a parità di efficienza di conversione, il costo di produzione della cella sia il più basso possibile. L'efficienza dei dispositivi fotovoltaici è limitata da perdite ottiche, di ricombinazione di carica e da resistenze parassite che dipendono da diversi fattori, tra i quali, le proprietà ottiche e di trasporto di carica dei materiali, l'architettura della cella e la capacità di intrappolare la luce da parte del dispositivo. Per diminuire il costo della cella, la tecnologia fotovoltaica ha cercato di ridurre il volume di materiale utilizzato (in genere semiconduttore), dal momento in cui si ritiene che il 40% del costo di una cella solare sia rappresentato dal materiale. Il trend che questo approccio comporta è quello di spingersi sempre di più verso spessori sottili, come riportato dalla International Technology Roadmap for Photovoltaic, oppure ridurre il costo della materia prima o del processo. Tra le architetture avanzate di fabbricazione si analizzano le Passivated Emitter and Rear Cell-PERC e le Metal Wrap Through-MWT Cell, e si studia, attraverso simulazioni numeriche TCAD, come parametri geometrici e di drogaggio vadano ad influenzare le cosiddette figure di merito di una cella solare.
Sistemi a microonde dedicati all'imaging della mammella: prototipi sperimentali e risultati clinici.
Resumo:
In questo lavoro si è voluto mostrare lo sviluppo di nuove tecniche per la diagnosi del tumore alla mammella, in particolare la tecnica di imaging a microonde. Fra le varie metodologie di imaging della mammella, la Microwave Imaging è particolarmente interessante in quanto sfrutta il contrasto nelle proprietà elettromagnetiche dei tessuti. Questa emergente tecnica offre numerosi vantaggi per le pazienti eliminando la compressione della mammella tipica delle mammografie a raggi-X, e l'uso di radiazioni ionizzanti e dannose per l'uomo. Per tali motivi, la ricerca in campo biomedico, dal 2000 in poi, si è interessata particolarmente all' uso delle onde elettromagnetiche nel range delle microonde per ottenere immagini diagnostiche. Il presente lavoro si propone di illustrare lo stato dell'arte attuale nel campo dell'imaging a microonde, descrivendo dettagliatamente i vari prototipi sviluppati in tutto il mondo, e infine esporre i risultati che i vari gruppi di ricerca hanno ottenuto. Anche se la tecnica, per le sue potenzialità, dovrebbe avere un largo uso clinico, solo pochi dei sistemi realizzati sono stati testati su pazienti a scopo diagnostico.
Resumo:
In questo lavoro di tesi è stata validata una interfaccia grafica in ambiente Windows capace di impostare i parametri della camera Tau 320 FLIR, usata a bordo del satellite ESEO come sensore di terra. L'impostazione dei parametri passa, inoltre, attraverso l'hardware Discovery F4 e per questo è stato sviluppato e validato anche uno script in linguaggio C per la Discovery che fa comunicare il PC con la camera.
Resumo:
MATERIALI E METODI: Tra il 2012 e il 2013, abbiamo analizzato in uno studio prospettico i dati di 48 pazienti sottoposti a ThuLEP con approccio autodidatta. I pazienti sono stati rivalutati a 3, 6, 12 e 24 mesi con la valutazione del PSA, il residuo post-minzionale (RPM), l'uroflussometria (Qmax), l'ecografia transrettale e questionari validati (IPSS: international prostate symptom score e QoL: quality of life) RISULTATI: Il volume medio della prostata è di 63 ± 5,3 ml. Il tempo operatorio medio è stato di 127,58 ± 28.50 minuti. Il peso medio del tessuto asportato è stato di 30,40 ± 13,90 gr. A 6 mesi dopo l'intervento l'RPM medio è diminuito da 165,13 ± 80,15 ml a 7,78 ± 29.19 ml, mentre il Qmax medio è aumentato da 5.75 ± 1.67ml / s a 18.1 ± 5.27 ml / s. I valori medi dei IPSS e QoL hanno dimostrato un progressivo miglioramento: da 19.15 (IQR: 2-31) e 4 (IQR: 1-6) nel preoperatorio a 6.04 (IQR: 1-20) e 1.13 (IQR: 1-4), rispettivamente. Durante la curva di apprendimento si è assistito ad un progressivo aumento del peso del tessuto enucleato e ad una progressiva riduzione del tempo di ospedalizzazione e di cateterismo. Tra le principali complicanze ricordiamo un tasso di incontinenza transitoria del 12,5% a 3 mesi e del 2.1% a 12 mesi. CONCLUSIONI: ThuLEP rappresenta una tecnica chirurgica efficace, sicura e riproducibile indipendentemente dalle dimensioni della prostata. I nostri dati suggeriscono che la ThuLEP offre un miglioramento significativo dei parametri funzionali comparabili con le tecniche tradizionali, nonostante una lunga curva di apprendimento.