954 resultados para reti ibride,Router Cisco,Switch HP,Raspberry Pi,interfacciamento,routing,switching,protocollo OSPF
Resumo:
L’intelligenza artificiale è senza dubbio uno degli argomenti attualmente più in voga nel mondo dell’informatica, sempre in costante evoluzione ed espansione in nuovi settori. In questa elaborato progettuale viene combinato l’argomento sopracitato con il mondo dei social network, che ormai sono parte integrante della quotidianità di tutti. Viene infatti analizzato lo stato dell’arte attuale delle reti neurali, in particolare delle reti generative avversarie, e vengono esaminate le principali tipologie di social network. Su questa base, infatti, verrà realizzato un sistema di rete sociale completo nel quale una GAN sarà proprio la protagonista, sfruttando le più interessanti tecnologie attualmente disponibili. Il sistema sarà disponibile sia come applicativo per dispositivi mobile che come sito web e introdurrà elementi di gamification per aumentare l’interazione con l’utente.
Resumo:
Negli ultimi anni vi è stato un aumento della sensibilità in merito alle tematiche ambientali e questo ha riguardato anche il settore della mobilità, spingendo sempre più verso l’elettrificazione dei trasporti. Una delle possibilità per elettrificare i trasporti sono le reti filoviarie. Di quelle già esistenti, però, la maggior parte è stata realizzata nel secolo scorso. Inoltre, non vengono effettuate misure per valutare quale sia lo stato del carico sulla rete. In questa tesi si è valutata la fattibilità di realizzazione di un sensore non intrusivo per la misura delle correnti sulle filovie di reti esistenti, al fine di poter ottenere i dati relativi ai flussi di potenza e permettere quindi, in futuro, una migliore gestione della rete. Per effettuare la misura di corrente in modo non invasivo si è pensato di utilizzare un sensore di campo magnetico stazionario. Per valutare l’intensità del campo magnetico, al fine di scegliere il sensore che si confacesse alle caratteristiche dell’applicazione, si è proceduto a sviluppare diversi modelli per rappresentare i conduttori della filovia. Da queste simulazioni è stato inoltre possibile valutare quale fosse la posizione più idonea al collocamento del sensore. Per l’alimentazione del sensore, si sono valutate più possibilità che permettessero di non ricorrere ad un cablaggio ausiliario, tra cui l’utilizzo di un pannello fotovoltaico eventualmente accoppiato ad una batteria. Per la trasmissione dei dati, sono stati valutati più protocolli e dispositivi di comunicazione per trovare quello che meglio combinasse le necessità di trasmissione su distanze medio-lunghe e la necessità di minimizzare i consumi energetici. Infine, sono state effettuate prove sperimentali per validare l'affidabilità delle misure, ovvero verificare che fosse realmente possibile stimare il valore delle correnti nei conduttori della filovia partendo da una misura di campo magnetico, e se i consumi energetici stimati fossero in linea con quelli reali.
Resumo:
Uno degli obiettivi più ambizioni e interessanti dell'informatica, specialmente nel campo dell'intelligenza artificiale, consiste nel raggiungere la capacità di far ragionare un computer in modo simile a come farebbe un essere umano. I più recenti successi nell'ambito delle reti neurali profonde, specialmente nel campo dell'elaborazione del testo in linguaggio naturale, hanno incentivato lo studio di nuove tecniche per affrontare tale problema, a cominciare dal ragionamento deduttivo, la forma più semplice e lineare di ragionamento logico. La domanda fondamentale alla base di questa tesi è infatti la seguente: in che modo una rete neurale basata sull'architettura Transformer può essere impiegata per avanzare lo stato dell'arte nell'ambito del ragionamento deduttivo in linguaggio naturale? Nella prima parte di questo lavoro presento uno studio approfondito di alcune tecnologie recenti che hanno affrontato questo problema con intuizioni vincenti. Da questa analisi emerge come particolarmente efficace l'integrazione delle reti neurali con tecniche simboliche più tradizionali. Nella seconda parte propongo un focus sull'architettura ProofWriter, che ha il pregio di essere relativamente semplice e intuitiva pur presentando prestazioni in linea con quelle dei concorrenti. Questo approfondimento mette in luce la capacità dei modelli T5, con il supporto del framework HuggingFace, di produrre più risposte alternative, tra cui è poi possibile cercare esternamente quella corretta. Nella terza e ultima parte fornisco un prototipo che mostra come si può impiegare tale tecnica per arricchire i sistemi tipo ProofWriter con approcci simbolici basati su nozioni linguistiche, conoscenze specifiche sul dominio applicativo o semplice buonsenso. Ciò che ne risulta è un significativo miglioramento dell'accuratezza rispetto al ProofWriter originale, ma soprattutto la dimostrazione che è possibile sfruttare tale capacità dei modelli T5 per migliorarne le prestazioni.
Resumo:
HP Composites, azienda leader nella produzione di componenti in fibra di carbonio, a seguito della crescita di ordini commissionati dai suoi clienti, ha deciso di affidare a dei fornitori la produzione di alcune commesse, in alcune o in tutte le fasi del loro ciclo. L’elaborato di tesi nasce da un’esperienza di tirocinio nell’ufficio pianificazione di HP Composites, e si pone l’obiettivo di analizzare tutte le attività che, evitando di dedicare risorse alle lavorazioni selezionate, deve compiere per supportare il fornitore; l’analisi è stata effettuata tramite la costruzione di un diagramma di flusso e fornendo un indicazione del tempo richiesto da ogni attività, per poi poi avanzare delle proposte di ottimizzazione. Il ciclo commessa può essere suddiviso in quattro fasi: scelta della commessa e selezione del fornitore, attivazione del fornitore, gestione settimanale dell’evasione degli ordini e gestione del fine commessa. L’ufficio acquisti nel tempo si è specializzato individuando i temi da chiarire prima di attivare la fornitura per evitare l’insorgere di problematiche a produzione già attivata. Per quanto riguarda la gestione settimanale del fornitore, è stato istituito il ruolo del responsabile delle esternalizzazioni, una figura che funga da intermediario con il fornitore e monitori la produzione esterna: questa figura apporta un'alta quantità di interazioni, ma HP valuta maggiori i vantaggi di questa gestione centralizzata. Inoltre nel tempo le attività pianificazione sono state ottimizzate grazie alla stesura di file precompilati da aggiornare. Un’attività fonte di inefficienza è quella dell’emissione dei documenti di trasporto, soprattutto nel caso in cui il compito di consegnare il prodotto al cliente è deputato al fornitore di conto lavoro: HP Composites ha intenzione di implementare un lettore barcode per l’emissione del documento che ridurrebbe i tempi richiesti dall’attività e permetterebbe una gestione del conto lavoro a sistema più corretta.
Resumo:
Il tema centrale di questa tesi è il Machine Learning e la sua applicabilità nella ricostruzione di immagini biomediche, nello specifico di immagini mammarie. Il metodo attualmente più diffuso per la rilevazione del tumore al seno è la Mammografia 2D digitale, ma l’interesse mostrato ultimamente verso la Tomosintesi ha dimostrato una migliore capacità di diagnosi tumorale, anche ai primi stadi. Sebbene le due tecniche combinate siano in grado di rilevare anche la minima lesione, questo comporta una sovraesposizione alle radiazioni. Lo scopo finale, perciò, è quello di fornire un valido strumento di supporto per la caratterizzazione automatica di masse e opacità in immagini di tomosintesi, così da sottoporre il paziente ad un singolo esame radiografico. L'obiettivo è stato dunque ricostruire, tramite reti neurali Convoluzionali, immagini sintetiche di Tomosintesi di qualità superiore e il più possibile vicine a quelle di mammografia 2D. Sono state presentate nel dettaglio le due tecniche di imaging, le problematiche ad esse legate ed un approfondito confronto dosimetrico. Dopo una trattazione teorica dei principi delle CNN, sono state riportate le caratteristiche delle architetture di rete realizzate nella parte progettuale dell’elaborato. Sono stati valutati i comportamenti dei differenti modelli neurali per uno stesso Dataset di immagini di Tomosintesi, individuandone il migliore in termini di prestazioni finali nelle immagini di Test. Dagli studi effettuati è stata provata la possibilità, in un futuro sempre più prossimo, di applicare la Tomosintesi, con l’ausilio delle reti Convoluzionali, come tecnica unica di screening e di rilevazione del tumore al seno.
Resumo:
La prima parte della tesi analizza il cambiamento della dieta degli italiani nel corso dei decenni, a partire dagli anni del dopoguerra fino al periodo contemporaneo. Il passaggio da un periodo di estrema povertà al boom economico ha permesso ai cittadini di dare sempre più importanza alla qualità del cibo. Con la nascita e lo sviluppo della televisione il popolo ha avuto la possibilità di conoscere le ricette tradizionali di ogni parte dell'Italia, arrivando a costruire una forte identità nazionale legata al mondo della cucina. Le trasmissioni televisive si sono trasformate sia grazie al cambiamento della società e della mentalità degli italiani, sia grazie ai numerosi nuovi canali tematici che sono nati grazie alle reti privati; ad oggi esistono dunque programmi di intrattenimento, pedagogici e show di ogni tipo che mostrano la cucina in tutte le sue sfaccettature. Il cibo e l'alimentazione in televisione sono stati rappresentati anche attraverso gli spot: è stato analizzato come i marchi abbiano inizialmente cercato di rendere attraente un prodotto - anche attraverso l'uso di donne sensuali come volto delle campagne pubblicitarie - fino ad arrivare al voler fidelizzare gli acquirenti veicolando specifici messaggi e valori. Dall'analisi del format Dinner Club è stato dimostrato come nel periodo contemporaneo i programmi abbiano forme e strutture ibride, che possono mescolare il lato pedagogico, riscoprendo il territorio italiano e le sue tradizioni culinarie, la sfida e la competizione tra i concorrenti e la parte legata all'intrattenimento. Nell'ultimo capitolo è stato messo in evidenza come i cuochi, presentatori di queste trasmissioni, stiano diventando sempre più famosi. Sono presenti sia aspetti positivi che negativi riguardo la loro progressiva importanza all'interno della società italiana.
Resumo:
I recenti sviluppi nel campo dell’intelligenza artificiale hanno permesso una più adeguata classificazione del segnale EEG. Negli ultimi anni è stato dimostrato come sia possibile ottenere ottime performance di classificazione impiegando tecniche di Machine Learning (ML) e di Deep Learning (DL), facendo uso, per quest’ultime, di reti neurali convoluzionali (Convolutional Neural Networks, CNN). In particolare, il Deep Learning richiede molti dati di training mentre spesso i dataset per EEG sono limitati ed è difficile quindi raggiungere prestazioni elevate. I metodi di Data Augmentation possono alleviare questo problema. Partendo da dati reali, questa tecnica permette, la creazione di dati artificiali fondamentali per aumentare le dimensioni del dataset di partenza. L’applicazione più comune è quella di utilizzare i Data Augmentation per aumentare le dimensioni del training set, in modo da addestrare il modello/rete neurale su un numero di campioni più esteso, riducendo gli errori di classificazione. Partendo da questa idea, i Data Augmentation sono stati applicati in molteplici campi e in particolare per la classificazione del segnale EEG. In questo elaborato di tesi, inizialmente, vengono descritti metodi di Data Augmentation implementati nel corso degli anni, utilizzabili anche nell’ambito di applicazioni EEG. Successivamente, si presentano alcuni studi specifici che applicano metodi di Data Augmentation per migliorare le presentazioni di classificatori basati su EEG per l’identificazione dello stato sonno/veglia, per il riconoscimento delle emozioni, e per la classificazione di immaginazione motoria.
Resumo:
Negli ultimi anni, la rete elettrica ha subito importanti cambiamenti dovuti principalmente al fatto che vi è stato un sensibile sviluppo di impianti di produzione da fonti rinnovabili. Questo aspetto ha però influenzato in modo considerevole il funzionamento della rete ed in particolare la risposta inerziale che essa ha a fronte di uno squilibrio della potenza attiva. In particolare, nella rete si è registrata una importante riduzione dell’inerzia disponibile in quanto molte delle fonti rinnovabili attualmente installate sono connesse tramite inverter, macchine statiche, che non sono in grado di fornire alcuna risposta inerziale in modo intrinseco. Si sta perciò rendendo sempre più necessario possedere degli strumenti volti a fornire una stima dell’inerzia a disposizione della rete, in modo tale da facilitare e migliorare la gestione del Sistema Elettrico. In tale contesto, in questa tesi ci si è concentrati sulla realizzazione di un modello EMTP della rete di distribuzione benchmark europea Cigrè, che permettesse di includere tutte le caratteristiche dinamiche della rete, dei generatori di produzione e in particolare, ci si è soffermati sulla modellizzazione dei carichi, eseguendo un’analisi e un confronto sulle possibili modalità di modellizzazione dei carichi in forma aggregata. Nella seconda parte, sono stati poi sviluppati degli algoritmi che permettessero dai dati raccolti attraverso le simulazioni di ricavare il valore della costante d’inerzia nei differenti scenari.
Resumo:
Grazie all’evoluzione degli strumenti di calcolo e delle strutture digitali, le intelligenze artificiali si sono evolute considerevolmente negli ultimi anni, permettendone sempre nuove e complesse applicazioni. L’interesse del presente progetto di tesi è quello di creare un modello di studio preliminare di intelligenza artificiale definita come Rete Neurale Convoluzionale, o Convolutional Neural Network (CNN), al fine di essere impiegata nel campo della radioscienza e dell’esplorazione planetaria. In particolare, uno degli interessi principali di applicazione del modello è negli studi di geodesia compiuti tramite determinazione orbitale di satelliti artificiali nel loro moto attorno ai corpi celesti. Le accelerazioni causate dai campi gravitazionali planetari perturbano le orbite dei satelliti artificiali, queste variazioni vengono captate dai ricevitori radio a terra sottoforma di shift Doppler della frequenza del segnale, a partire dalla quale è quindi possibile determinare informazioni dettagliate sul campo di gravità e sulla struttura interna del corpo celeste in esame. Per poter fare ciò, occorre riuscire a determinare l’esatta frequenza del segnale in arrivo, il quale, per via di perdite e disturbi durante il suo tragitto, presenterà sempre una componente di rumore. Il metodo più comune per scindere la componente di informazione da quella di rumore e ricavarne la frequenza effettiva è l’applicazione di trasformate di Fourier a tempo breve, o Short-time Fourier Transform (STFT). Con l’attività sperimentale proposta, ci si è quindi posto l’obiettivo di istruire un CNN alla stima della frequenza di segnali reali sinusoidali rumorosi per avere un modello computazionalmente rapido e affidabile a supporto delle operazioni di pre-processing per missioni di radio-scienza.
Resumo:
Long-acting reversible contraceptives (LARCs) include the copper-releasing intrauterine device (IUD), the levonorgestrel-releasing intrauterine system (LNG-IUS) and implants. Despite the high contraceptive efficacy of LARCs, their prevalence of use remains low in many countries. The objective of this study was to assess the main reasons for switching from contraceptive methods requiring daily or monthly compliance to LARC methods within a Brazilian cohort. Women of 18-50 years of age using different contraceptives and wishing to switch to a LARC method answered a questionnaire regarding their motivations for switching from their current contraceptive. Continuation rates were evaluated 1 year after method initiation. Sample size was calculated at 1040 women. Clinical performance was evaluated by life table analysis. The cutoff date for analysis was May 23, 2013. Overall, 1167 women were interviewed; however, after 1 year of use, the medical records of only 1154 women were available for review. The main personal reason for switching, as reported by the women, was fear of becoming pregnant while the main medical reasons were nausea and vomiting and unscheduled bleeding. No pregnancies occurred during LARC use, and the main reasons for discontinuation were expulsion (in the case of the IUD and LNG-IUS) and a decision to undergo surgical sterilization (in the case of the etonogestrel-releasing implant). Continuation rate was ~95.0/100 women/year for the three methods. Most women chose a LARC method for its safety and for practical reasons, and after 1 year of use, most women continued with the method.
Resumo:
The mechanism of incoherent pi(0) and eta photoproduction from complex nuclei is investigated from 4 to 12 GeV with an extended version of the multicollisional Monte Carlo (MCMC) intranuclear cascade model. The calculations take into account the elementary photoproduction amplitudes via a Regge model and the nuclear effects of photon shadowing, Pauli blocking, and meson-nucleus final-state interactions. The results for pi(0) photoproduction reproduced for the first time the magnitude and energy dependence of the measured rations sigma(gamma A)/sigma(gamma N) for several nuclei (Be, C, Al, Cu, Ag, and Pb) from a Cornell experiment. The results for eta photoproduction fitted the inelastic background in Cornell's yields remarkably well, which is clearly not isotropic as previously considered in Cornell's analysis. With this constraint for the background, the eta -> gamma gamma. decay width was extracted using the Primakoff method, combining Be and Cu data [Gamma(eta ->gamma gamma) = 0.476(62) keV] and using Be data only [Gamma(eta ->gamma gamma) = 0.512(90) keV]; where the errors are only statistical. These results are in sharp contrast (similar to 50-60%) with the value reported by the Cornell group [Gamma(eta ->gamma gamma). = 0.324(46) keV] and in line with the Particle Data Group average of 0.510(26) keV.
Resumo:
Using a sample of 68.3x10(6) K(L)->pi(0)pi(0)pi(0) decays collected in 1996-1999 by the KTeV (E832) experiment at Fermilab, we present a detailed study of the K(L)->pi(0)pi(0)pi(0) Dalitz plot density. We report the first observation of interference from K(L)->pi(+)pi(-)pi(0) decays in which pi(+)pi(-) rescatters to pi(0)pi(0) in a final-state interaction. This rescattering effect is described by the Cabibbo-Isidori model, and it depends on the difference in pion scattering lengths between the isospin I=0 and I=2 states, a(0)-a(2). Using the Cabibbo-Isidori model, and fixing (a(0)-a(2))m(pi)(+)=0.268 +/- 0.017 as measured by the CERN-NA48 collaboration, we present the first measurement of the K(L)->pi(0)pi(0)pi(0) quadratic slope parameter that accounts for the rescattering effect: h(000)=(+0.59 +/- 0.20(stat)+/- 0.48(syst)+/- 1.06(ext))x10(-3), where the uncertainties are from data statistics, KTeV systematic errors, and external systematic errors. Fitting for both h(000) and a(0)-a(2), we find h(000)=(-2.09 +/- 0.62(stat)+/- 0.72(syst)+/- 0.28(ext))x10(-3), and m(pi)(+)(a(0)-a(2))=0.215 +/- 0.014(stat)+/- 0.025(syst)+/- 0.006(ext); our value for a(0)-a(2) is consistent with that from NA48.
Resumo:
The KTeV E799 experiment has conducted a search for the rare decay K(L)->pi(0)pi(0)gamma via the topology K(L)->pi(0)pi(0)(D)gamma (where pi(0)(D)->gamma e(+)e(-)). Because of Bose statistics of the pi(0) pair and the real nature of the photon, the K(L)->pi(0)pi(0)gamma decay is restricted to proceed at lowest order by the CP conserving direct emission (DE) of an E2 electric quadrupole photon. The rate of this decay is interesting theoretically since chiral perturbation theory predicts that this process vanishes at level O(p(4)). Therefore, this mode probes chiral perturbation theory at O(p(6)). In this paper we report a determination of an upper limit of 2.43x10(-7) (90% CL) for K(L)->pi(0)pi(0)gamma. This is approximately a factor of 20 lower than previous results.
Resumo:
We report on a new measurement of the branching ratio B(K(L) -> pi(0)gamma gamma) using the KTeV detector. We reconstruct 1982 events with an estimated background of 608, that results in B(K(L) -> pi(0)gamma gamma)=(1.29 +/- 0.03(stat) +/- 0.05(syst)) x 10(-6). We also measure the parameter, a(V), which characterizes the strength of vector meson exchange terms in this decay. We find a(V) = -0.31 +/- 0.05(stat) +/- 0.07(syst). These results utilize the full KTeV data set collected from 1997 to 2000 and supersede earlier KTeV measurements of the branching ratio and a(V).
Resumo:
Measurements of double-helicity asymmetries in inclusive hadron production in polarized p + p collisions are sensitive to helicity-dependent parton distribution functions, in particular, to the gluon helicity distribution, Delta g. This study focuses on the extraction of the double-helicity asymmetry in eta production ((p) over right arrow + (p) over right arrow -> eta + X), the eta cross section, and the eta/pi(0) cross section ratio. The cross section and ratio measurements provide essential input for the extraction of fragmentation functions that are needed to access the helicity-dependent parton distribution functions.