967 resultados para logica polivalente sintassi semantica legge di Lewis
Resumo:
La tesi di Dottorato studia il flusso sanguigno tramite un codice agli elementi finiti (COMSOL Multiphysics). Nell’arteria è presente un catetere Doppler (in posizione concentrica o decentrata rispetto all’asse di simmetria) o di stenosi di varia forma ed estensione. Le arterie sono solidi cilindrici rigidi, elastici o iperelastici. Le arterie hanno diametri di 6 mm, 5 mm, 4 mm e 2 mm. Il flusso ematico è in regime laminare stazionario e transitorio, ed il sangue è un fluido non-Newtoniano di Casson, modificato secondo la formulazione di Gonzales & Moraga. Le analisi numeriche sono realizzate in domini tridimensionali e bidimensionali, in quest’ultimo caso analizzando l’interazione fluido-strutturale. Nei casi tridimensionali, le arterie (simulazioni fluidodinamiche) sono infinitamente rigide: ricavato il campo di pressione si procede quindi all’analisi strutturale, per determinare le variazioni di sezione e la permanenza del disturbo sul flusso. La portata sanguigna è determinata nei casi tridimensionali con catetere individuando tre valori (massimo, minimo e medio); mentre per i casi 2D e tridimensionali con arterie stenotiche la legge di pressione riproduce l’impulso ematico. La mesh è triangolare (2D) o tetraedrica (3D), infittita alla parete ed a valle dell’ostacolo, per catturare le ricircolazioni. Alla tesi sono allegate due appendici, che studiano con codici CFD la trasmissione del calore in microcanali e l’ evaporazione di gocce d’acqua in sistemi non confinati. La fluidodinamica nei microcanali è analoga all’emodinamica nei capillari. Il metodo Euleriano-Lagrangiano (simulazioni dell’evaporazione) schematizza la natura mista del sangue. La parte inerente ai microcanali analizza il transitorio a seguito dell’applicazione di un flusso termico variabile nel tempo, variando velocità in ingresso e dimensioni del microcanale. L’indagine sull’evaporazione di gocce è un’analisi parametrica in 3D, che esamina il peso del singolo parametro (temperatura esterna, diametro iniziale, umidità relativa, velocità iniziale, coefficiente di diffusione) per individuare quello che influenza maggiormente il fenomeno.
Resumo:
Nel presente lavoro viene trattato il delicato tema dell’autotutela collettiva, nell’intersezione tra ipotesi di revisione nazionale e prospettive europee. Dapprima viene ricostruita l’evoluzione della valutazione del conflitto collettivo nell’ordinamento giuridico italiano ed effettuata una ricognizione delle diverse manifestazioni del conflitto collettivo ivi riscontrabili. Il tentativo è quello di superare i limiti di una trattazione ristretta allo sciopero e di verificare la perdurante validità della tradizionale nozione di sciopero, intesa esclusivamente come astensione collettiva dalle prestazioni di lavoro. In un secondo capitolo vengono esaminati i disegni di legge di riforma in materia di conflitto collettivo, presentati nel corso della XVI legislatura e le clausole, incidenti sulla medesima materia, rinvenibili nell’Accordo interconfederale del 28 giugno 2011 e negli accordi FIAT del 2010, relativi agli stabilimenti di Pomigliano D’Arco e Mirafiori. Alla luce di tali materiali, si riesaminano le tematiche della titolarità individuale del diritto di sciopero, delle clausole di tregua e delle procedure arbitrali e conciliative. Successivamente, viene esaminata la produzione legislativa e giurisprudenziale comunitaria in tema di conflitto collettivo. Il confronto con l’ordinamento nazionale consente di mettere criticamente in luce il diverso rapporto tra mercato e diritti d’azione collettiva e di rilevare che nell’ordinamento comunitario la giurisprudenza della Corte di giustizia abbia introdotto limiti eccessivi al dispiegarsi dei diritti sociali in esame. Da ultimo, vengono formulate alcune considerazioni conclusive. Criticamente viene rilevato come, in tempi di globalizzazione, non viene prestata sufficiente attenzione alla valorizzazione del conflitto collettivo, come motore dell’emancipazione e del progresso sociale.
Resumo:
Applicazione delle equazioni differenziali alla Legge di Newton e ai vari tipi di moto armonico
Resumo:
Una stella non è un sistema in "vero" equilibrio termodinamico: perde costantemente energia, non ha una composizione chimica costante nel tempo e non ha nemmeno una temperatura uniforme. Ma, in realtà, i processi atomici e sub-atomici avvengono in tempi così brevi, rispetto ai tempi caratteristici dell'evoluzione stellare, da potersi considerare sempre in equilibrio. Le reazioni termonucleari, invece, avvengono su tempi scala molto lunghi, confrontabili persino con i tempi di evoluzione stellare. Inoltre il gradiente di temperatura è dell'ordine di 1e-4 K/cm e il libero cammino medio di un fotone è circa di 1 cm, il che ci permette di assumere che ogni strato della stella sia uno strato adiabatico a temperatura uniforme. Di conseguenza lo stato della materia negli interni stellari è in una condizione di ``quasi'' equilibrio termodinamico, cosa che ci permette di descrivere la materia attraverso le leggi della Meccanica Statistica. In particolare lo stato dei fotoni è descritto dalla Statistica di Bose-Einstein, la quale conduce alla Legge di Planck; lo stato del gas di ioni ed elettroni non degeneri è descritto dalla Statistica di Maxwell-Boltzmann; e, nel caso di degenerazione, lo stato degli elettroni è descritto dalla Statistica di Fermi-Dirac. Nella forma più generale, l'equazione di stato dipende dalla somma dei contributi appena citati (radiazione, gas e degenerazione). Vedremo prima questi contributi singolarmente, e dopo li confronteremo tra loro, ottenendo delle relazioni che permettono di determinare quale legge descrive lo stato fisico di un plasma stellare, semplicemente conoscendone temperatura e densità. Rappresentando queste condizioni su un piano $\log \rho \-- \log T$ possiamo descrivere lo stato del nucleo stellare come un punto, e vedere in che stato è la materia al suo interno, a seconda della zona del piano in cui ricade. È anche possibile seguire tutta l'evoluzione della stella tracciando una linea che mostra come cambia lo stato della materia nucleare nelle diverse fasi evolutive. Infine vedremo come leggi quantistiche che operano su scala atomica e sub-atomica siano in grado di influenzare l'evoluzione di sistemi enormi come quelli stellari: infatti la degenerazione elettronica conduce ad una massa limite per oggetti completamente degeneri (in particolare per le nane bianche) detta Massa di Chandrasekhar.
Resumo:
Quando la probabilità di misurare un particolare valore di una certa quantità varia inversamente come potenza di tale valore, il quantitativo è detto come seguente una power-law, conosciuta anche come legge di Zipf o distribuzione di Pareto. Obiettivo di questa tesi sarà principalmente quello di verificare se il campione esteso di imprese segue la power-law (e se sì, in che limiti). A tale fine si configureranno i dati in un formato di rete monomodale, della quale si studieranno alcune macro-proprietà di struttura a livllo complessivo e con riferimento alle componenti (i singoli subnet distinti) di maggior dimensione. Successivamente si compiranno alcuni approfondimenti sulla struttura fine di alcuni subnet, essenzialmente rivolti ad evidenziare la potenza di unapproccio network-based, anche al fine di rivelare rilevanti proprietà nascoste del sistema economico soggiacente, sempre, ovviamente, nei limiti della modellizzazione adottata. In sintesi, ciò che questo lavoro intende ottenere è lo sviluppo di un approccio alternativo al trattamento dei big data a componente relazionale intrinseca (in questo caso le partecipazioni di capitale), verso la loro conversione in "big knowledge": da un insieme di dati cognitivamente inaccessibili, attraverso la strutturazione dell'informazione in modalità di rete, giungere ad una conoscenza sufficientemente chiara e giustificata.
Resumo:
In questa tesi si indaga come è possibile strutturare in modo modulare programmi e prove in linguaggi con tipi dipendenti. Il lavoro è sviluppato nel linguaggio di programmazione con tipi dipendenti Agda. Il fine è quello di tradurre l'approccio Datatypes à la carte, originariamente formulato per Haskell, in Type Theory: puntiamo ad ottenere un simile embedding di una nozione di sottotipaggio per tipi ricorsivi, che permetta sia la definizione di programmi con side-effect dove i diversi effetti sono definiti modularmente, che la modularizzazione di sintassi, semantica e ragionamento relativi a descrizioni di linguaggi.
Resumo:
Il presente elaborato concerne le problematiche giuridiche connesse alla regolamentazione del settore dell’autotrasporto di cose per conto di terzi in Italia, con particolare attenzione alla disciplina dei profili tariffari ed alle dinamiche consolidatesi nella prassi in relazione alle pratiche di dumping sociale, outsourcing e delocalizzazione. Nella prima parte, dopo una premessa finalizzata a descrivere le caratteristiche strutturali dei fornitori di servizi di autotrasporto in ambito nazionale e comunitario nonchè le principali peculiarità del mercato di riferimento, viene descritta ed analizzata l’evoluzione normativa e giurisprudenziale verificatasi con riguardo ai profili tariffari dell’autotrasporto, esaminando in particolare le caratteristiche ed i profili di criticità propri delle discipline in materia di “tariffe a forcella” di cui alla L. n. 298/1974 e di “costi minimi di sicurezza” di cui all’art. 83-bis del D.L. n. 112/2008, fino a giungere all’analisi degli scenari conseguenti alla recente riforma del settore apportata dalla Legge di Stabilità 2015 (L. 23/12/2014, n. 190). Nella seconda parte, vengono esaminate alcune tematiche problematiche che interessano il settore, sia a livello nazionale che comunitario, e che risultano strettamente connesse ai sopra menzionati profili tariffari. In particolare, si fa riferimento alle fattispecie del cabotaggio stradale, del distacco transazionale di lavoratori e dell’abuso della libertà di stabilimento in ambito comunitario concretantesi nella fattispecie della esterovestizione. Tali problematiche sono state analizzate dapprima attraverso la ricostruzione del quadro normativo nazionale e comunitario di riferimento; in secondo luogo, attraverso l’esame dei profili critici emersi alla luce delle dinamiche di mercato invalse nel settore e, infine, in relazione all’analisi dello scenario futuro desumibile dalle iniziative legislative ed amministrative in atto, nonché dagli indirizzi interpretativi affermatisi in ambito giurisprudenziale.
Resumo:
“Per me la Fisica costituisce un sistema perfettamente armonioso ed essenzialmente completo. All’orizzonte scorgo solamente due piccole nubi oscure: il risultato negativo dell’esperienza di Michelson e Morley e l’insufficienza della legge di Rayleigh e Jeans se applicata alle frequenze dell’ultravioletto” Con questa frase William Thomson Kelvin delineava, sul finire dell’800, i tratti di una Fisica fondata su solide basi che consentisse di spiegare i fenomeni di natura meccanica per mezzo delle Leggi della Dinamica di Newton e descrivesse le proprietà del campo elettromagnetico grazie alle Equazioni di Maxwell. Tuttavia, come riferisce lo stesso Lord Kelvin, rimaneva qualcosa di inspiegato: i due risultati mancanti sino ad allora diedero origine ad una vera e propria rivoluzione nel campo della Fisica. Grazie all’esperienza di Michelson e Morley, in disaccordo con quanto previsto dalla Meccanica Classica, Albert Einstein nel 1905 fu in grado di estendere i risultati della Relatività Galileiana ad eventi che coinvolgono velocità prossime a quella della luce; dall’altro lato, Max Planck nel 1900 pose le basi della Meccanica Quantistica, ipotizzando la quantizzazione dell’Energia, studiando la radiazione di Corpo Nero. Definendo il Corpo Nero come un oggetto ideale la cui superficie è in grado di assorbire qualsiasi radiazione elettromagnetica incidente su di esso, in questo compendio saranno esposti il processo che ha indotto lo scienziato tedesco Gustav Robert Kirchhoff all’idealizzazione di tale concetto, la soluzione della quantizzazione di Planck per ovviare al fenomeno della Catastrofe Ultravioletta derivante dall’approccio di Rayleigh e Jeans e la determinazione dello Spettro di Corpo Nero con le relative proprietà, Leggi empiriche che ne regolano l’andamento. Verranno inoltre presentati alcuni esempi astrofisici reali le cui emissioni rispecchiano l’andamento del Corpo Nero e se ne discuteranno le relative caratteristiche che li discostano dall’oggetto teorico.
Resumo:
Studio e Progettazione di un sistema di sicurezza ed una legge di controllo per UAV di tipo quadcopter.
Resumo:
Questa tesi nasce dal voler approfondire lo studio delle curve piane di grado 3 iniziato nel corso di Geometria Proiettiva. In particolare si andrà a studiare la legge di gruppo che si può definire su tali curve e i punti razionali di ordine finito appartenenti alle curve ellittiche. Nel primo capitolo si parla di equazioni diofantee, dell’Ultimo Teorema di Fermat, dell'equazione e della formula di duplicazione di Bachet. Si parla inoltre dello stretto rapporto tra la geometria, l'algebra e la teoria dei numeri nella teoria delle curve ellittiche e come le curve ellittiche siano importanti nella crittografia. Nel secondo capitolo vengono enunciate alcune definizioni, proposizioni e teoremi, riguardanti polinomi e curve ellittiche. Nel terzo capitolo viene introdotta la forma normale di una cubica. Nel quarto capitolo viene descritta la legge di gruppo su una cubica piana non singolare e la costruzione geometrica che porta ad essa; si vede il caso particolare della legge di gruppo per una cubica razionale in forma normale ed inoltre si ricavano le formule esplicite per la somma di due punti appartenenti ad una cubica. Nel capitolo cinque si iniziano a studiare i punti di ordine finito per una curva ellittica con la legge di gruppo dove l'origine è un flesso: vengono descritti e studiati i punti di ordine 2 e quelli di ordine 3. Infine, nel sesto capitolo si studiano i punti razionali di ordine finito qualsiasi: viene introdotto il concetto di discriminante di una cubica e successivamente viene enunciato e dimostrato il teorema di Nagell-Lutz.
Resumo:
In questo lavoro si studia l'insieme dei punti di una curva ellittica, visto come gruppo abeliano, con particolare attenzione al caso dei punti a coordinate razionali quando la curva è data da un'equazione a coefficienti razionali. Dopo aver visto le proprietà della legge di gruppo su una cubica liscia piana razionale in forma normale, vengono presentati alcuni risultati sul sottogruppo dei punti razionali, fra i quali i teoremi di Nagell-Lutz e di Mordell, che permettono di dare una descrizione di tale sottogruppo.
Resumo:
In questo studio è stata effettuata una stima della riduzione della azione verticale sul pilastro e in particolare in corrispondenza delle connessioni, per varie tipologie strutturali, per effetto dell’azione sismica verticale. Si è pervenuti, nei diversi casi analizzati, una legge per il coefficiente di attrito dinamico, a partire dal coefficiente di attrito statico, tenendo conto della legge di riduzione dello sforzo assiale, da utilizzare per il calcolo della forza di attrito che si instaura nelle suddette condizioni dinamiche. A tal fine sono stati utilizzati diversi modelli che tengono conto delle caratteristiche geometriche, della lunghezza e della forma degli elementi strutturali oltre che delle varie condizioni di carico, luci massime e minime che possono raggiungere gli elementi orizzontali. Sono state pertanto effettuate, attraverso l’ utilizzo di software di calcolo agli elementi finiti, diverse tipologie di analisi che hanno permesso di effettuare le indagini necessarie sul problema oggetto di studio.
Resumo:
La validità della legge di gravitazione di Newton, o ISL (dall'inglese inverse square law) è stata ampiamente dimostrata dalle osservazioni astronomiche nel sistema solare (raggio d'azione di circa 10^{7}- 10^{9} km). Gli esperimenti effettuati su scale geologiche (raggio d'azione tra cm e km), eredi dell'esperimento di Cavendish, sono stati capaci di fornire un valore sperimentale della costante G della ISL affetto però da un'incertezza consistente (la precisione con cui si conosce G è dell'ordine di grandezza di 10^{-4}). L'interesse nella determinazione di un valore più preciso della costante G è aumentato negli ultimi decenni, supportato dalla necessità di mettere alla prova nuove teorie di gravitazione non Newtoniane emergenti, e da un avanzamento tecnologico negli apparati di misura, che sono ora in grado di rilevare l'interazione gravitazionale anche su distanze molto brevi (al di sotto del mm). In questo elaborato vengono brevemente presentate alcune delle teorie avanzate negli ultimi decenni che hanno reso urgente la riduzione dell'incertezza sulla misura di G, elencando successivamente alcuni importanti esperimenti condotti per la determinazione di un valore di G ripercorrendone brevemente i metodi sperimentali seguiti. Tra gli esperimenti presentati, sono infine analizzati nel dettaglio due esperimenti significativi: La misura della costante gravitazionale effettuata a corto raggio con l'utilizzo di atomi freddi nell'ambito dell'esperimento MAGIA a Firenze, e l'osservazione della presunta variazione di G su scale temporali relativamente lunghe, effettuata mediante l'osservazione (della durata di 21 anni)della pulsar binaria PSR J1713+0747.
Resumo:
Uno degli aspetti più influenti sulla qualità chimica e biologica dell’acqua di laghi e invasi, caratteristico del bacino di Ridracoli, è rappresentato dalla stratificazione termica, un processo di formazione di volumi d’acqua a diversa densità che può verificarsi allorquando, in alcune circostanze e, nello specifico, durante la stagione estiva, si instauri una condizione stabile in cui l’acqua riscaldata dalla radiazione solare sovrasta quella più fredda e densa del fondo. Una delle conseguenze di tali variazioni termiche è che esse inducono cambiamenti nei livelli di ossigeno disciolto, favorendo l’instaurarsi di processi di degradazione anaerobica della materia organica e determinando la formazione di un chimismo ostile per l’attività biologica. I cicli stagionali, redox-dipendenti, di Ferro e Manganese tra la colonna d’acqua e i sedimenti sono caratteristici di questi ambienti ed una loro risospensione in forma disciolta è stato rilevato nell’ipolimnio dell’invaso di Ridracoli, stagionalmente anossico. Questo studio, collocato all’interno di un ampio progetto finanziato da Romagna Acque Società delle Fonti S.p.A. con la Facoltà di Scienze Ambientali – Campus di Ravenna ed il CNR-ISMAR, si è posto come obiettivo l’individuazione dei fattori che controllano la distribuzione e la mobilità degli elementi chimici all’interno del sistema acqua-sedimento dell’invaso di Ridracoli ed è articolato in tre diverse fasi: • Indagine della composizione chimica del sedimento; • Analisi ed interpretazione della composizione chimica delle acque interstiziali • Stima del flussi attraverso l’interfaccia acqua-sedimento mediante l’utilizzo di una camera bentica e l’applicazione della prima legge di Fick sulla diffusione. Al termine del lavoro è stato possibile ricostruire un quadro diagenetico generale contraddistinto da una deplezione degli accettori di elettroni principali (O2 e NO3-) entro i primi millimetri di sedimento, da un consumo immediato di SO42- e da una graduale riduzione degli ossidi di Mn (IV) e Fe (III), con formazione di gradienti negativi ed il rilascio di sostanze disciolte nella colonna d’acqua.
Resumo:
In questa tesi descriviamo due teorie, la MOND e la TeVeS, che si pongono come alternativa all’ipotesi dell’esistenza della materia oscura. Seguendo l’ordine storico degli eventi, nel primo capitolo presentiamo i dati sperimentali e le considerazioni teoriche che hanno convinto gli scienziati del ’900 che la massa osservata nell’Universo sia minore della massa dinamica inferita dalla fisica newtoniana e dalla Relatività Generale. Il primo tentativo di risolvere questo problema è consistito nell’ipotizzare l’esistenza di una materia non ancora osservata, divenuta nota come “materia oscura”. Affrontando le questioni sollevate dalle curve di rotazione delle galassie a spirale, dalla relazione di Tully-Fisher, dalla legge di Freeman e dalle fluttuazioni della radiazione cosmica di fondo, vedremo come questa ipotesi si sia evoluta per tenere conto dei risultati sperimentali, a partire dal modello della sfera isoterma fino al modello ΛCDM, e i problemi che essa non risolve. Nel secondo capitolo descriviamo la MOND, una modifica della dinamica newtoniana nata con l’obiettivo di ridurre la quantità di materia oscura necessaria per descrivere l’Universo. Il problema della massa nascosta può, infatti, essere dovuto a un’incompleta comprensione delle leggi della fisica e, confrontando la MOND con i dati sperimentali presentati nel primo capitolo, vedremo come essa riesca a descrivere la dinamica su scale galattiche ed extragalattiche. Concluderemo il capitolo mostrando una densità di lagrangiana capace di riprodurre la formula fenomenologica della MOND. Per affrontare le questioni cosmologiche è necessario disporre di una teoria relativistica che recuperi la MOND nel limite di campo debole. Nel terzo capitolo trattiamo quindi la TeVeS, riportando le azioni che permettono di derivare le equazioni dei campi di tale teoria. Dopo averne studiato i limiti relativistici e non relativistici, accenneremo a come essa permetta di estendere il paradigma MOND in campo cosmologico.