998 resultados para teoria dei giochi teoria delle decisioni
Resumo:
Nel Capitolo I abbiamo osservato come la legittimazione abbia per oggetto la fonte di produzione del diritto, mentre la legalità l’atto emanato dalla fonte nell’esercizio del potere. La legittimazione è fondamento del potere, attiene alla sua titolarità e giustifica l’obbedienza e l’uso della forza. La legalità si riferisce all’esercizio del potere, regolandolo. Si è visto come «quando si esige la legittimazione del potere, si chiede che colui che lo detiene abbia il diritto di averlo. Quando si invoca la legalità del potere, si domanda che chi lo detiene lo eserciti non secondo il proprio capriccio ma in conformità di regole stabilite ed entro i limiti di queste. Il contrario del potere legittimo è il potere di fatto, il contrario del potere legale è il potere arbitrario» . Si è poi precisato che legittimazione e legalità sono i fondamenti alla base dello Stato democratico: laddove non v’è legittimazione non vi può essere neppure democrazia, distinguendo la legittimazione formale, che riguarda chi è legittimato ad agire, ad esercitare il potere, compiendo atti giuridici prescrittivi; dalla legittimazione sostanziale, che riguarda invece che cosa non può e che cosa non può non essere deciso, ossia i limiti e i vincoli imposti all’esercizio del potere . La legittimazione è però presente in tutte le forme di Stato, tanto in quelli autoritari, quanto in quelli democratici. Ciò che distingue tra autoritarietà e democraticità dello Stato è il tipo di atto attraverso il quale si manifesta la legittimazione del potere. Il potere autoritario riceve la propria legittimazione attraverso atti di fede, quello democratico con atti di fiducia. Gli atti di fede possono solo essere spezzati, rotti. Al contrario, gli atti di fiducia possono essere rinnovati o revocati, e pertanto hanno bisogno di norme legali che ne regolino il funzionamento. In tal senso, modelli autoritari e democratici differiscono ulteriormente: nei primi, legittimato il potere, è legittimo tutto ciò che di esso è manifestazione; si può dire che la legittimazione resta tutta assorbita nella legalità. Diversamente, nei modelli democratici, è necessario vi siano norme che disciplinano quell’atto di fiducia legittimante il potere, ma non solo, ve ne devono anche essere altre che regolino l’esercizio del potere stesso. Non solo, ma la legittimazione per essere democratica deve avvenire periodicamente e ha bisogno di un pubblico attivo, informato, consapevole dei suoi diritti, perché è la democrazia ad aver bisogno di un pubblico, di un consenso sociale, che attraverso la propria legittimazione del potere controlli chi quel potere è chiamato ad esercitarlo. Si comprende, allora, perché il principio di legalità in sé e per sé non può garantire la democrazia. Esso garantisce la conformità alla legge, la non arbitrarietà nell’esercizio del potere, ma nulla dice su chi quella legge ha il potere di emanarla, e infatti l’art. 1 del Codice Rocco, durante il fascismo, non garantiva certo le libertà democratiche. Allo stesso modo, la legittimazione sociale in sé e per sé non garantisce la democrazia, perché anche forme di Stato autoritarie, plebiscitarie, hanno un consenso sociale che le sorregge e legittima tutto ciò che chi esercita il potere decide di fare, almeno fino a quando continuano ad avervi fede. Nel Capitolo II abbiamo mostrato come, attraverso la riserva di legge, la Costituzione garantisca entrambi i fondamenti democratici: quello della legalità nell’esercizio della potestà punitiva e quello della legittimazione del Parlamento che la esercita. Dunque, legalità e legittimazione periodica sono un binomio indissolubile, perché possa aversi uno Stato democratico; inoltre è necessario che l’esercizio del potere avvenga “in pubblico” e che l’opinione pubblica abbia una coscienza critica che le consenta di valutare e orientare le proprie scelte. È stato poi sostenuto nel Capitolo III come lo stesso Parlamento non possa – in democrazia – essere libero di sanzionare con pena tutto ciò che vuole, ma sia vincolato direttamente dalla Costituzione rigida e almeno indirettamente dal consenso sociale, che dovrebbe impedire che sia trasformato in illecito penale tutto ciò per la collettività non dovrebbe essere sanzionato come tale. In questo l’informazione, attraverso i mezzi di comunicazione, rappresenta un postulato necessario per ogni modello democratico in grado di influenzare i cittadini nella percezione della realtà. In quest’ultimo Capitolo IV, infine, abbiamo messo in luce come una distorta percezione della realtà, da parte del consenso sociale, alteri “patologicamente” la legittimazione democratica, facendole perdere ogni sua funzione di garanzia nel delimitare il potere politico.
Resumo:
Il presente lavoro vuole sensibilizzare al problema socio-linguistico dell’insegnamento dell’italiano come lingua seconda: si mostra un panorama della situazione, partendo dall’insegnamento in sé, presentando le tecniche ed i metodi non finalizzati al mero insegnamento, ma anche all’accoglienza della famiglia e alla crescita serena del bambino appena arrivato; si passa, poi, alla descrizione del contesto in cui opera la didattica interculturale, un contesto che presenta varie problematicità, dal sofferto arrivo in una terra straniera, alla necessità di adattamento nel gruppo dei pari e nel sistema scolastico, sia dal punto sociale che dal punto di vista linguistico. Il soggetto di questa tesina sono i bambini, perché un mondo che funzioni bene deve saper ruotare attorno a loro. I protagonisti del "caso particolare" di cui si parla nel titolo sono due bambini cinesi arrivati in Italia da poco e dei quali viene raccontata la loro prima esperienza di studio dell'italiano nel loro nuovo Paese.
Il libro dell'arte. Elementi di estetica e di letteratura ad uso delle scuole medie di secondo grado
Resumo:
v.1. La lingua e lo stile, a cura di A. Pellizzari.--v.2. Teoria e storia dei componimenti letterari, a cura di D. Guerr. 2. ed., riv.
Resumo:
El ensayo examina la cuestión de la aplicación de las reglas y de la capacidad real para tratar casos específicos, llegando a la conclusión de que es la excepción la que confirma la regla, a condición de que sea dialógicamente construida, para que sea interpretable y aplicable por parte de sus numerosos destinatarios en las políticas públicas más complejas y conflictuales, sobre todo a nivel local.
Resumo:
Con il testo presente, si intende mostrare come i gradi di libertà associati all'entropia di un buco nero possano essere ricercati in parte fruttuosamente nell'interazione dei campi quantistici con la struttura causale e geometrica esibita da un buco nero. Nel Capitolo 1, si affrontano le principali caratteristiche dei buchi neri alla luce della teoria classica di Relatività Generale: sono analizzate la soluzione di Schwarzschild e la struttura causale nello spazio-tempo conseguente, discutendo le definizioni di orizzonte e di singolarità e il rapporto che le lega, con riferimento ai risultati di Penrose e Hawking. Introdotto, all'inizio del Capitolo 2, il concetto di gravità superficiale e la metrica di Kerr-Newman, si studia il significato delle Quattro Leggi dei buchi neri, valide per soluzioni stazionarie. Il Capitolo 3 espone quali motivazioni spingano a proporre una caratterizzazione termodinamica dei buchi neri, attribuendovi una temperatura e un'entropia (detta “di Bekenstein-Hawking”) di natura geometrica, dipendente dall'area dell'orizzonte; si trattano qui i problemi che si incontrano nel costruire una corrispondente Meccanica Statistica. Si descrive dunque in quali termini il processo di radiazione di Hawking riesca a dare una spiegazione fisica della temperatura, e si rileva la presenza, secondo osservatori statici, di un'atmosfera termica nei pressi dell’orizzonte. Infine, si esamina la possibilità di attribuire alla radiazione di Hawking i gradi di libertà relativi all'entropia di Bekenstein-Hawking. In particolare, si illustra il modello a muro di mattoni di 't Hooft, che lega i gradi di libertà all'atmosfera termica. Considerando infine la deformazione dell'orizzonte dovuta a fluttuazioni quantistiche, si giunge alla conclusione che l'entropia dell'atmosfera termica rappresenta non un'interpretazione dell'entropia di Bekenstein-Hawking, bensì una sua correzione al secondo ordine.
Resumo:
En las ciencias sociales de latinoamericanas, una intensa discusión sobre los procesos de desarrollo, subdesarrollo, dependencia, imperialismo y otros conceptos similares o relacionados, data desde hace más de 50 años. La teoría de la CEPAL de los años 50 y 60 del pasado siglo introdujo la noción de centro-periferia, como un marco general para su explicación del subdesarrollo. La tradición marxista puso, y sigue poniendo, el énfasis en la extracción y transferencia de excedentes hacia los centros desarrollados, aunque los mecanismos de esta transferencia no han sido del todo aclarados teóricamente (distintas variantes del “intercambio desigual”). Y la llamada escuela de la dependenciallamó la atención sobre la dialéctica entre desarrollo y subdesarrollo, siendo el subdesarrollo de las zonas periféricas un resultado, más o menos mecánico, del desarrollo de los centros; teniendo la virtud de resaltar el carácter global y estructuralmente diferenciado del capitalismo, pero sin lograr explicar esta dialéctica que era su punto de partida.
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Direito, Programa de Pós-Graduação em Direito, 2016.
Resumo:
Al giorno d'oggi il reinforcement learning ha dimostrato di essere davvero molto efficace nel machine learning in svariati campi, come ad esempio i giochi, il riconoscimento vocale e molti altri. Perciò, abbiamo deciso di applicare il reinforcement learning ai problemi di allocazione, in quanto sono un campo di ricerca non ancora studiato con questa tecnica e perchè questi problemi racchiudono nella loro formulazione un vasto insieme di sotto-problemi con simili caratteristiche, per cui una soluzione per uno di essi si estende ad ognuno di questi sotto-problemi. In questo progetto abbiamo realizzato un applicativo chiamato Service Broker, il quale, attraverso il reinforcement learning, apprende come distribuire l'esecuzione di tasks su dei lavoratori asincroni e distribuiti. L'analogia è quella di un cloud data center, il quale possiede delle risorse interne - possibilmente distribuite nella server farm -, riceve dei tasks dai suoi clienti e li esegue su queste risorse. L'obiettivo dell'applicativo, e quindi del data center, è quello di allocare questi tasks in maniera da minimizzare il costo di esecuzione. Inoltre, al fine di testare gli agenti del reinforcement learning sviluppati è stato creato un environment, un simulatore, che permettesse di concentrarsi nello sviluppo dei componenti necessari agli agenti, invece che doversi anche occupare di eventuali aspetti implementativi necessari in un vero data center, come ad esempio la comunicazione con i vari nodi e i tempi di latenza di quest'ultima. I risultati ottenuti hanno dunque confermato la teoria studiata, riuscendo a ottenere prestazioni migliori di alcuni dei metodi classici per il task allocation.
Resumo:
L’elaborato si propone di analizzare i principali punti di contatto, nell’ordinamento domestico, tra le funzioni esercitate dalla giurisdizione ordinaria civile e le attribuzioni delle Autorità amministrative indipendenti, nel tentativo di delineare un quadro sistematico dei rapporti. Nella prima parte dell’indagine, ci si sofferma sui variegati strumenti di risoluzione delle controversie coniati in seno alle Autorità indipendenti, cercando di sviluppare un’essenziale classificazione per categorie omogenee, al fine di vagliare la compatibilità dei diversi modelli con il dato costituzionale. Successivamente, si sposta l’indagine sulle interferenze emergenti con riferimento a quelle attività delle Authorities assimilabili all’applicazione della legge al caso concreto nel contesto del pubblic enforcement. Tra queste, spicca la delicata questione del valore dei provvedimenti delle Authorities nei (correlati) processi civili risarcitori, soprattutto a seguito dell’entrata in vigore dell’art. 7, d.lgs. 3/2017, che ha plasmato un inedito «vincolo» per il giudice ordinario all’accertamento dell’AGCM. Alla previsione normativa si associa la tendenza giurisprudenziale a riconoscere una particolare “attitudine probatoria” anche ai provvedimenti di altre Autorità indipendenti, pur in assenza di specifica previsione normativa. Nel corso della trattazione, più che limitarsi ad esprimere una preferenza tra le diverse soluzioni già proposte dalla dottrina, si cerca di gettare le basi per un’interpretazione autonoma e sistematica del fenomeno. Adottando un approccio quanto più possibile interdisciplinare, si cercano di coniugare i punti di approdo della teoria generale dell’accertamento giuridico con quelli, gius-pubblicistici, della categoria dell’accertamento amministrativo. Si passa, infine, a vagliare le condizioni affinché tale ipotetico modello unitario possa ritenersi compatibile con altri valori di rilievo costituzionale e non solo, utilizzando quale parametro di riferimento l’art. 6 Cedu, come interpretato dalla Corte di Strasburgo.
Resumo:
Il Ground Penetrating Radar (GPR) è una tecnica di indagine non distruttiva che si basa sulla teoria della propagazione delle onde elettromagnetiche. Questa tecnologia venne inizialmente utilizzata per indagini geologiche, ma più recentemente è stata introdotta anche per lo studio di altri materiali quali calcestruzzo, legno e asfalto. Questa tecnologia investigativa può essere utilizzata per varie problematiche : • Localizzazione di oggetti all’interno del materiale inglobante • Determinazione dello spessore dello strato del materiale oggetto di studio (calcestruzzo, asfalto, terreno, legno) • Proprietà del materiale, inclusa umidità ed eventuale presenza di vuoti Nella fase iniziale di questo lavoro di tesi sono stati studiati i principi fisici di funzionamento, la metodologia di elaborazione dei dati restituiti dallo strumento e di interpretazione dei risultati. Successivamente, è stato posto l’obbiettivo di verificare l’applicabilità del georadar nel rintracciare i ferri di armatura nelle travi da ponte. Quest’ultime sono spesso realizzate tramite l’impiego della precompressione con cavi post-tesi che implica la presenza di guaine con all’interno i relativi trefoli di tensionamento. Per simulare tali condizioni sono state realizzate in laboratorio delle “travi campione” con guaine in differente materiale, con differente posizionamento e con differente tecnologia di posa, in modo tale da permettere di studiare diversi scenari. Di seguito le differenti tipologie di travi : - Trave con guaine metalliche ; - Trave con guaine plastiche ; - Trave con interruzioni in polistirolo lungo le guaine (per simulare la corrosione delle stesse); - Travi con trefoli inseriti all’interno delle guaine (per studiarne l’influenza sul segnale).
Resumo:
L’oggetto di questo elaborato è lo studio computazionale, a livello della teoria del funzionale della densità (DFT) e della sua formulazione dipendente dal tempo (TD-DFT), dei dimeri della molecola di rodamina-B, parallelo allo sviluppo di una procedura di tuning ottimale del funzionale CAM-B3LYP. Questa molecola, che assume notevole rilevanza nei sistemi light harvesting grazie alle sue proprietà fotochimiche di emissione nel visibile, è impiegata nella sintesi di nanoparticelle (NPs) fluorescenti in ambito di diagnostica medica e bio-imaging, che sfruttano il fenomeno di trasferimento di energia per risonanza (FRET). Per via della notevole importanza che questa molecola riveste nell’ambito della fotochimica, essa è stata oggetto di esperimenti del gruppo di ricerca del laboratorio di biofotonica e farmacologia “Nanochemistry and Bioimaging”, che collabora con il gruppo di chimica computazionale dell’area chimico/fisica del Dipartimento. La dimerizzazione della rodamina all’interno delle NPs può innescare canali di self-quenching che abbassano la resa quantica di fluorescenza, pregiudicando l’efficienza dei dispositivi: l’obiettivo dello studio è la caratterizzazione dei dimeri, in solventi e con controioni diversi, impiegando dei modelli molecolari, per identificarne le specie più stabili e descrivere la fotofisica degli stati elettronici eccitati. Il carattere generalmente charge-transfer (CT) di questi stati elettronici richiede un “tuning ottimale” della metodologia computazionale DFT/TD-DFT per una descrizione quantitativa accurata.
Resumo:
L'obiettivo dell'elaborato è quello di studiare le proprietà spettrali di un'operatore di Markov associato ad una passeggiata aleatoria ipoellittica dipendente da un parametro h, sufficientemente piccolo, e costruita su una varietà liscia finito-dimensionale, connessa, compatta e senza bordo. Nell'affrontare tale problema si utilizza una tecnica di Rothschild e Stein, basata sulla costruzione di un'algebra di Lie graduata. Si ottiene in questo modo una corrispondenza tra la varietà e l'algebra di Lie, e si utilizza la struttura che quest'ultima presenta per studiare il problema su di essa. Il risultato principale a cui si vuole giungere tramite l'analisi spettale dell'operatore di Markov è una stima, uniforme rispetto ad h, per il tasso di convergenza di tale passeggiata aleatoria verso l'equilibrio, al tendere del numero dei passi all'infinito. Tramite l'approccio utilizzato si giunge inoltre ad un risultato di convergenza della catena di Markov ad una diffusione ipoellittica continua al tendere di h a 0.
Resumo:
La tesi ha come obiettivo quello di confrontare i metodi di previsione delle rotture affrontati durante il corso di studi e avvalorati dal libro di Horst Rinne del 2008. Nell'applicare la teoria al sistema reale, si evincono i problemi che sorgono nelle previsioni, come: l’incertezza, la mancanza e l’impossibilità di utilizzo della totalità dei dati a disposizione. E' stato necessario, pertanto, adattare i dati prima di utilizzarli e sfruttare nuovi metodi per raggiungere i risultati prefissati.
Resumo:
The application of sand filters in localized irrigation systems is recommended in the presence of organic and algae contamination. The proper design and maintenance of these equipments are essential to assure an effective water quality control, in order to reduce the emitters clogging, to keep its water application uniformity, and to prevent increasing in the system operation costs. Despite the existence of some references about design, operation and maintenance of these filters, they are dispersed, with not enough details to guarantee the optimization of its hydraulics structure design and the proper selection of porous media to be used. Therefore, the objective of this work was to report a current literature review, relating practical information with scientific knowledge. The content of this review would help to induce and intensify the research on this subject and to contribute so the operational functions for the equipment are reached. It is also expected to assist the improvement of the filtration and flushing processes in the agricultural irrigation and the development of original design procedures and the rational use of these devices.
Resumo:
This paper tries to show that the developments in linguistic sciences are better viewed as stages in a single research program, rather than different ideological -isms. The first part contains an overview of the structuralistas' beliefs about the universality and equivalence of human languages, and their search for syntactic universals. In the second part, we will see that the generative program, in its turn, tries to answer why language is a universal faculty in the human species and addresses questions about its form, its development and its use. In the second part, we will see that the paper gives a brief glimpse of the tentative answers the program has been giving to each of these issues.