961 resultados para problemi additivi sui numeri primi


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il lavoro affronta il tema degli strumenti finanziari partecipativi e non partecipativi che possono essere emessi dalle società per azioni, alla luce della disciplina introdotta dalla riforma del diritto societario. Lo studio è diretto a fornire un inquadramento sistematico di queste modalità di finanziamento rispetto alla dicotomia azioni-obbligazioni, anche sotto il profilo contabile, per poi individuare le conseguenti implicazioni in termini di disciplina applicabile. Affrontando il dibattito dottrinale sulla collocazione complessiva degli strumenti ibridi rispetto alle forme di finanziamento tradizionali, si sposa l’opinione secondo cui tutti gli strumenti finanziari non possono essere ricompresi in una categoria unitaria, ma occorre mantenere distinti gli strumenti finanziari partecipativi indicati dall’art. 2346, comma 6, c.c., dagli altri strumenti finanziari ex art. 2411, comma 3, c.c., riconoscendo nei primi delle modalità di raccolta assimilabili al capitale di rischio e nei secondi delle forme di provvista di capitale di debito. Il connotato distintivo tra strumenti finanziari partecipativi e non partecipativi viene individuato non nell’attribuzione di diritti amministrativi – che possono anche non essere assegnati ai titolari di strumenti di cui all’art. 2346, comma 6 – bensì nell’assenza o nella presenza di un obbligo di rimborso dell’apporto fornito all’impresa. Il lavoro esamina inoltre vari profili di disciplina di entrambe le categorie di strumenti, concentrandosi prevalentemente sui diritti patrimoniali ad essi attribuibili, tra cui la partecipazione agli utili e alle perdite e i diritti in sede di liquidazione. Infine si esaminano le previsioni recentemente introdotte dal d.l. n. 83/2012 in tema di titoli obbligazionari, al fine di valutarne l’impatto sull’impianto complessivo della disciplina vigente. In particolare, viene data attenzione alle nuove disposizioni relative alle obbligazioni subordinate e/o partecipative che possono essere emesse dalle società non quotate, mettendo in evidenza le criticità dal punto di vista sistematico in tema di possibile partecipazione agli utili degli obbligazionisti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La terminologia informatica e di Internet in spagnolo è caratterizzata da una forte instabilità lessicale e semantica. La grande presenza di anglicismi che si creano con enorme rapidità, impedisce il corretto processo di incorporazione di tali termini nello spagnolo, favorendo così la convivenza di lessico inglese e termini solo parzialmente adattati alla lingua spagnola, dei quali spesso non si conosce l'esatto significato. I traduttori che operano in queste aree linguistiche, così come gli informatici e tutti gli interessati al corretto utilizzo di questa terminologia, per risolvere le problematiche che incontrano, fanno uso oggi soprattutto di risorse online più facilmente aggiornabili ed accessibili rispetto ai classici dizionari cartacei. Tra queste, sono molto importanti gli spazi che permettono la collaborazione diretta tra professionisti del settore, che favoriscono un approccio dinamico e contestuale nella risoluzione di tali dubbi. Il Foro Tic del Centro Virtual Cervantes, dedicato alla discussione su tale linguaggio, raccoglie interessanti dibattiti sull'argomento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tomosintesi digitale computerizzata è una particolare tecnica che permette di ricostruire una rappresentazione 3D di un oggetto, con un numero finito di proiezioni su un range angolare limitato, sfruttando le convenzionali attrezzature digitali a raggi X. In questa tesi è stato descritto un modello matematico per la ricostruzione dell’immagine della mammella nella tomosintesi digitale polienergetica che tiene conto della varietà di materiali che compongono l’oggetto e della natura polienergetica del fascio di raggi X. Utilizzando questo modello polienergetico-multimateriale, la ricostruzione dell’immagine di tomosintesi è stata ricondotta alla formulazione di un problema dei minimi quadrati non lineare su larga scala e risolverlo ha permesso la ricostruzione delle percentuali dei materiali del volume assegnato. Nelle sperimentazioni sono stati implementati il metodo del gradiente, il metodo di Gauss-Newton ed il metodo di Gauss-Newton CGLS. E' stato anche utilizzato l’algoritmo trust region reflective implementato nella funzione lsqnonlin di MATLAB. Il problema della ricostruzione dell'immagine di tomosintesi è stato risolto utilizzando questi quattro metodi ed i risultati ottenuti sono stati confrontati tra di loro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

I potenziali evocati visivi steady state (ssVEPs) consistono in una perturbazione dell’attività elettrica cerebrale spontanea e insorgono in presenza di stimoli visivi come luci monocromatiche modulate sinusoidalmente. Nel tracciato EEG si instaurano oscillazioni di piccola ampiezza ad una frequenza pari a quella dello stimolo. L’analisi nel dominio delle frequenze permette di mettere in evidenza queste oscillazioni che si presentano con un picco ben distinto in corrispondenza della frequenza dello stimolo. L’obiettivo di questo lavoro è quello di capire se la stimolazione transcranica in corrente continua (tDCS) ha degli effetti a breve e a medio termine sui SSVEPs. Si è studiato gli effetti della stimolazione anodica utilizzando un montaggio di stimolazione extra-cefalico (anodo posizionato su Oz e catodo sul braccio destro). L’esperimento prevede il flickering a 3 frequenze di interesse (12, 15, 20 Hz) di 3 quadrati colorati (rosso e giallo) su sfondo nero. Sono state quindi messe a confronto 4 condizioni operative: baseline, stimolazione sham, stimolazione anodica, condizione Post Anodica.L’esperimento è stato sottoposto a 6 soggetti di età tra i 21 e i 51 anni. Il segnale è stato acquisito da due canali bipolari localizzati nella regione occipitale (O1-PO7 e O2-PO8). È stato effettuato un filtraggio tra 3-60 Hz e a 50 Hz. Si sono stimate le PSD normalizzate rispetto alla condizione di riposo in baseline e le potenze nell’intorno della frequenze di interesse (12,15,20 Hz). I dati chiaramente artefattuali sono stati scartati mediante un’analisi esplorativa. Da qui è stato deciso di non includere nella statistica la stimolazione anodica. L’analisi statistica considera tre aspetti: effetto stimolazione, effetto frequenza ed effetto colore. In alcune configurazioni la stimolazione post anodica si è rivelata significativamente differente con ranghi medi delle colonne inferiori alle altre stimolazioni. Non ci sono differenze significative tra le frequenze. Il colore giallo è risultato significativamente maggiore al colore rosso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La telemedicina è uno strumento in grado fornire assistenza ad un paziente o monitorarne le condizioni di salute, impiegando dispositivi di telecomunicazione avanzati i quali rendono possibile la trasmissione a distanza di informazioni mediche dal paziente alla struttura sanitaria o viceversa. Questo elaborato si propone di illustrare come la telemedicina sia utilizzata nel trattamento dello scompenso cardiaco a prescindere dalla distanza tra le strutture sanitarie e il luogo di residenza del malato ottenendo risultati incoraggianti sia dal punto di vista del quadro di salute psico-fisico dei pazienti sia dal punto di vista economico per il Sistema Sanitario Nazionale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

È impossibile implementare sorgenti autenticamente casuali su hardware digitale. Quindi, storicamente, si è fatto ampio uso di generatori di numeri pseudo-casuali, evitando così i costi necessari per la progettazione di hardware analogico dedicato. Tuttavia, le sorgenti pseudo-casuali hanno proprietà (riproducibilità e periodicità) che si trasformano in vulnerabilità, nel caso in cui vengano adottate in sistemi di sicurezza informatica e all’interno di algoritmi crittografici. Oggi la richiesta di generatori di numeri autenticamente casuali è ai suoi massimi storici. Alcuni importanti attori dell’ICT sviluppato proprie soluzioni dedicate, ma queste sono disponibili solo sui sistemi moderni e di fascia elevata. È quindi di grande attualità rendere fruibili generatori autenticamente casuali per sistemi già esistenti o a basso costo. Per garantire sicurezza e al tempo stesso contenere i costi di progetto è opportuno pensare ad architetture che consentano di riusare parti analogiche già disponibili. Particolarmente interessanti risultano alcune architetture che, grazie all’utilizzo di dinamiche caotiche, consentono di basare buona parte della catena analogica di elaborazione su ADC. Infatti, tali blocchi sono ampiamente fruibili in forma integrata su architetture programmabili e microcontrollori. In questo lavoro, si propone un’implementazione a basso costo ed elevata flessibilità di un architettura basata su un ADC, inizialmente concepita all’Università di Bologna. La riduzione di costo viene ottenuta sfruttando il convertitore già presente all’interno di un microcontrollore. L’elevata flessibilità deriva dal fatto che il microcontrollore prescelto mette a disposizione una varietà di interfacce di comunicazione, tra cui quella USB, con la quale è possibile rendere facilmente fruibili i numeri casuali generati. Quindi, l’intero apparato comprende solo un microcontrollore e una minima catena analogica di elaborazione esterna e può essere interfacciato con estrema facilità ad elaboratori elettronici o sistemi embedded. La qualità della proposta, in termini di statistica delle sequenze casuali generate, è stata validata sfruttando i test standardizzati dall’U.S. NIST.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Studio osservazionale condotto presso la Dermatologia dell'Università di Bologna atto a valutare l'efficacia di methotrexate e, in particolare, la sua influenza sui titoli degli autoanticorpi patogeni nei pazienti affetti dalla malattia rara Pemfigoide Bolloso

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’idea di realizzare questo lavoro di ricerca sulla traduzione nell’ambito pubblicitario sorge da un interesse nell’analisi del linguaggio della pubblicità, sia nelle sue componenti psicologiche e persuasive che in quelle linguistiche. La pubblicità è oggi uno dei principali motori dell’economia, un canale di comunicazione diffuso in maniera sempre più capillare ed uno strumento estetico ed ideologico di massa, che condiziona il modo di guardare le cose in maniera decisiva. Con la globalizzazione e la necessità di esportare i prodotti di ogni paese a livello mondiale, ha assunto un’importanza fondamentale la traduzione degli annunci di promozione di questi prodotti finalizzata alla localizzazione dei messaggi pubblicitari, in contrasto alla tendenza alla globalizzazione linguistica. Questo lavoro si propone di analizzare proprio questo contrasto tra la necessità di adattare il testo al paese e alla cultura del destinatario e, d’altra parte, l’internazionalizzazione e standardizzazione dei messaggi, la situazione in cui questo contrasto sorge ed il modo in cui viene risolto. Partendo dalla descrizione delle origini del termine “pubblicità” nel tentativo di definirne il concetto, passando attraverso la descrizione dei suoi obiettivi e funzioni e descrivendo il processo persuasivo ed i diversi modi in cui la pubblicità può essere classificata, vengono spiegate le strategie traduttive del messaggio pubblicitario, le situazioni particolari in cui tali strategie sono applicate ed i loro fini. Vengono descritte le tecniche di traduzione applicate al nome del marchio, il modo in cui i riferimenti culturali presenti nell’annuncio vengono adattati ai diversi paesi e le tecniche traduttive adattate al mezzo di comunicazione e ai vari recettori. In seguito si descrive l’importanza della forza appellativa ed espressiva di ogni testo e della struttura testuale nella traduzione degli annunci e il modo in cui vengono adattati gli elementi grafici e la grafia durante la traduzione, terminando con alcuni esempi concreti di errori di traduzione di annunci pubblicitari.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Al giorno d'oggi una pratica molto comune è quella di eseguire ricerche su Google per cercare qualsiasi tipo di informazione e molte persone, con problemi di salute, cercano su Google sintomi, consigli medici e possibili rimedi. Questo fatto vale sia per pazienti sporadici che per pazienti cronici: il primo gruppo spesso fa ricerche per rassicurarsi e per cercare informazioni riguardanti i sintomi ed i tempi di guarigione, il secondo gruppo invece cerca nuovi trattamenti e soluzioni. Anche i social networks sono diventati posti di comunicazione medica, dove i pazienti condividono le loro esperienze, ascoltano quelle di altri e si scambiano consigli. Tutte queste ricerche, questo fare domande e scrivere post o altro ha contribuito alla crescita di grandissimi database distribuiti online di informazioni, conosciuti come BigData, che sono molto utili ma anche molto complessi e che necessitano quindi di algoritmi specifici per estrarre e comprendere le variabili di interesse. Per analizzare questo gruppo interessante di pazienti gli sforzi sono stati concentrati in particolare sui pazienti affetti dal morbo di Crohn, che è un tipo di malattia infiammatoria intestinale (IBD) che può colpire qualsiasi parte del tratto gastrointestinale, dalla bocca all'ano, provocando una grande varietà di sintomi. E' stato fatto riferimento a competenze mediche ed informatiche per identificare e studiare ciò che i pazienti con questa malattia provano e scrivono sui social, al fine di comprendere come la loro malattia evolve nel tempo e qual'è il loro umore a riguardo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La Word Sense Disambiguation è un problema informatico appartenente al campo di studi del Natural Language Processing, che consiste nel determinare il senso di una parola a seconda del contesto in cui essa viene utilizzata. Se un processo del genere può apparire banale per un essere umano, può risultare d'altra parte straordinariamente complicato se si cerca di codificarlo in una serie di istruzioni esguibili da una macchina. Il primo e principale problema necessario da affrontare per farlo è quello della conoscenza: per operare una disambiguazione sui termini di un testo, un computer deve poter attingere da un lessico che sia il più possibile coerente con quello di un essere umano. Sebbene esistano altri modi di agire in questo caso, quello di creare una fonte di conoscenza machine-readable è certamente il metodo che permette di affrontare il problema in maniera più diretta. Nel corso di questa tesi si cercherà, come prima cosa, di spiegare in cosa consiste la Word Sense Disambiguation, tramite una descrizione breve ma il più possibile dettagliata del problema. Nel capitolo 1 esso viene presentato partendo da alcuni cenni storici, per poi passare alla descrizione dei componenti fondamentali da tenere in considerazione durante il lavoro. Verranno illustrati concetti ripresi in seguito, che spaziano dalla normalizzazione del testo in input fino al riassunto dei metodi di classificazione comunemente usati in questo campo. Il capitolo 2 è invece dedicato alla descrizione di BabelNet, una risorsa lessico-semantica multilingua di recente costruzione nata all'Università La Sapienza di Roma. Verranno innanzitutto descritte le due fonti da cui BabelNet attinge la propria conoscenza, WordNet e Wikipedia. In seguito saranno illustrati i passi della sua creazione, dal mapping tra le due risorse base fino alla definizione di tutte le relazioni che legano gli insiemi di termini all'interno del lessico. Infine viene proposta una serie di esperimenti che mira a mettere BabelNet su un banco di prova, prima per verificare la consistenza del suo metodo di costruzione, poi per confrontarla, in termini di prestazioni, con altri sistemi allo stato dell'arte sottoponendola a diversi task estrapolati dai SemEval, eventi internazionali dedicati alla valutazione dei problemi WSD, che definiscono di fatto gli standard di questo campo. Nel capitolo finale vengono sviluppate alcune considerazioni sulla disambiguazione, introdotte da un elenco dei principali campi applicativi del problema. Vengono in questa sede delineati i possibili sviluppi futuri della ricerca, ma anche i problemi noti e le strade recentemente intraprese per cercare di portare le prestazioni della Word Sense Disambiguation oltre i limiti finora definiti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’obiettivo di questa tesi è quello di mettere a confronto due mondi: quello dei DBMS relazionali e quello dei DBMS a grafo, con lo scopo di comprendere meglio quest'ultimo. Perciò, sono state scelte le due tecnologie che meglio rappresentano i loro mondi: Oracle per gli RDBMS e Neo4j per i Graph DBMS. I due DBMS sono stati sottoposti ad una serie di interrogazioni atte a testare le performance al variare di determinati fattori, come la selettività, il numero di join che Oracle effettua, etc. I test svolti si collocano nell'ambito business intelligence e in particolare in quello dell’analisi OLAP.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Heart diseases are the leading cause of death worldwide, both for men and women. However, the ionic mechanisms underlying many cardiac arrhythmias and genetic disorders are not completely understood, thus leading to a limited efficacy of the current available therapies and leaving many open questions for cardiac electrophysiologists. On the other hand, experimental data availability is still a great issue in this field: most of the experiments are performed in vitro and/or using animal models (e.g. rabbit, dog and mouse), even when the final aim is to better understand the electrical behaviour of in vivo human heart either in physiological or pathological conditions. Computational modelling constitutes a primary tool in cardiac electrophysiology: in silico simulations, based on the available experimental data, may help to understand the electrical properties of the heart and the ionic mechanisms underlying a specific phenomenon. Once validated, mathematical models can be used for making predictions and testing hypotheses, thus suggesting potential therapeutic targets. This PhD thesis aims to apply computational cardiac modelling of human single cell action potential (AP) to three clinical scenarios, in order to gain new insights into the ionic mechanisms involved in the electrophysiological changes observed in vitro and/or in vivo. The first context is blood electrolyte variations, which may occur in patients due to different pathologies and/or therapies. In particular, we focused on extracellular Ca2+ and its effect on the AP duration (APD). The second context is haemodialysis (HD) therapy: in addition to blood electrolyte variations, patients undergo a lot of other different changes during HD, e.g. heart rate, cell volume, pH, and sympatho-vagal balance. The third context is human hypertrophic cardiomyopathy (HCM), a genetic disorder characterised by an increased arrhythmic risk, and still lacking a specific pharmacological treatment.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scopo di questo lavoro è analizzare se e in quali modi il linguaggio metaforico viene utilizzato nella lingua giuridica italiana e tedesca. In particolare, l’analisi verterà su testi giuridici specifici, quali leggi e sentenze. In un primo momento verrà chiarito che cosa s’intende quando si parla di metafora e verrà illustrato come la concezione di metafora è cambiata nel corso degli anni. Saranno illustrate, quindi, le principali teorie sulla metafora, a partire da Aristotele, colui che coniò il termine, arrivando fino alle teorie di linguisti e filosofi dell’età moderna, facendo particolarmente attenzione all’opera Metaphors We Live By pubblicata nel 1980 dagli studiosi americani Lakoff e Johnson, la quale rappresenta un approccio cognitivista allo studio della metafora. In seguito, il lavoro si concentrerà sulla relazione tra metafora e linguaggi specialistici, citando le famose teorie di Boyd e di Kuhn, per poi soffermarsi sulle posizioni sul linguaggio metaforico nei linguaggi specialistici di autori tedeschi e italiani rispetto alle proprie lingue. Rimanendo in questo ambito, verrà approfondito, dopo una breve illustrazione delle caratteristiche della lingua giuridica, il rapporto tra la metafora e, appunto, la lingua giuridica, fornendo le teorie di linguisti e filosofi tedeschi e italiani, ma anche di giuristi stessi. Si passerà poi al cuore di questo lavoro, ovvero l’analisi dei testi giuridici, in cui si vedrà secondo quali criteri e con che scopi gli autori dei testi presi in esame sfruttano il linguaggio metaforico. L’analisi verterà su testi che Mortara Garavelli definisce testi normativi e testi applicativi, ma siccome l’autrice cita anche testi che definisce interpretativi, verrà condotto anche un confronto tra l’analisi compiuta in questo lavoro sui primi due tipi di testi giuridici e l’analisi compiuta da Veronesi in Wege, Gebäude, Kämpfe: Metaphern im deutschen und italienischen rechtswissenschaftlichen Diskurs sui testi di tipo interpretativo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il contenuto fisico della Relatività Generale è espresso dal Principio di Equivalenza, che sancisce l'equivalenza di geometria e gravitazione. La teoria predice l'esistenza dei buchi neri, i più semplici oggetti macroscopici esistenti in natura: essi sono infatti descritti da pochi parametri, le cui variazioni obbediscono a leggi analoghe a quelle della termodinamica. La termodinamica dei buchi neri è posta su basi solide dalla meccanica quantistica, mediante il fenomeno noto come radiazione di Hawking. Questi risultati gettano una luce su una possibile teoria quantistica della gravitazione, ma ad oggi una simile teoria è ancora lontana. In questa tesi ci proponiamo di studiare i buchi neri nei loro aspetti sia classici che quantistici. I primi due capitoli sono dedicati all'esposizione dei principali risultati raggiunti in ambito teorico: in particolare ci soffermeremo sui singularity theorems, le leggi della meccanica dei buchi neri e la radiazione di Hawking. Il terzo capitolo, che estende la discussione sulle singolarità, espone la teoria dei buchi neri non singolari, pensati come un modello effettivo di rimozione delle singolarità. Infine il quarto capitolo esplora le ulteriori conseguenze della meccanica quantistica sulla dinamica dei buchi neri, mediante l'uso della nozione di entropia di entanglement.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questa tesi ha l’obiettivo di comprendere e valutare se l’approccio al paradigma SDN, che verrà spiegato nel capitolo 1, può essere utilizzato efficacemente per implementare dei sistemi atti alla protezione e alla sicurezza di una rete più o meno estesa. Oltre ad introdurre il paradigma SDN con i relativi componenti basilari, si introduce il protocollo fondamentale OpenFlow, per la gestione dei vari componenti. Per ottenere l’obiettivo prestabilito, si sono seguiti alcuni passaggi preliminari. Primo tra tutti si è studiato cos’è l’SDN. Esso introduce una potenziale innovazione nell’utilizzo della rete. La combinazione tra la visione globale di tutta la rete e la programmabilità di essa, rende la gestione del traffico di rete un processo abbastanza complicato in termini di livello applicativo, ma con un risultato alquanto performante in termini di flessibilità. Le alterazioni all’architettura di rete introdotte da SDN devono essere valutate per garantire che la sicurezza di rete sia mantenuta. Le Software Defined Network (come vedremo nei primi capitoli) sono in grado di interagire attraverso tutti i livelli del modello ISO/OSI e questa loro caratteristica può creare problemi. Nelle reti odierne, quando si agisce in un ambiente “confinato”, è facile sia prevedere cosa potrebbe accadere, che riuscire a tracciare gli eventi meno facilmente rilevabili. Invece, quando si gestiscono più livelli, la situazione diventa molto più complessa perché si hanno più fattori da gestire, la variabilità dei casi possibili aumenta fortemente e diventa più complicato anche distinguere i casi leciti da quelli illeciti. Sulla base di queste complicazioni, ci si è chiesto se SDN abbia delle problematiche di sicurezza e come potrebbe essere usato per la sicurezza. Per rispondere a questo interrogativo si è fatta una revisione della letteratura a riguardo, indicando, nel capitolo 3, alcune delle soluzioni che sono state studiate. Successivamente si sono chiariti gli strumenti che vengono utilizzati per la creazione e la gestione di queste reti (capitolo 4) ed infine (capitolo 5) si è provato ad implementare un caso di studio per capire quali sono i problemi da affrontare a livello pratico. Successivamente verranno descritti tutti i passaggi individuati in maniera dettagliata ed alla fine si terranno alcune conclusioni sulla base dell’esperienza svolta.