988 resultados para Diritto reale
Resumo:
Il tema relativo al potere di esternazione del Presidente di Assemblea parlamentare rappresenta un aspetto problematico del diritto costituzionale a causa delle sue diverse implicazioni nonché delle numerose intersezioni tra dato costituzionale e legislativo, dottrina e prassi configurando, dunque, un ambito di ricerca di indubbia rilevanza e attualità all’interno del dibattito costituzionalistico.È chiaro che l’analisi di tale problematica necessita dell’assunzione di un punto di vista che non potrà essere strettamente tecnico-giuridica, ma che necessariamente dovrà confrontarsi con elementi della prassi politico-costituzionale.
Resumo:
La tesi analizza i rapporti tra l’ordinamento italiano e la Cedu, in particolare la collocazione della Cedu all’interno del sistema delle fonti alla luce della modifica dell’art. 117, comma 1 Cost. Si tratta di un tema molto dibattuto in dottrina, specialmente a seguito dell’entrata in vigore del Trattato di Lisbona. Questa tematica risulta strettamente connessa al profilo dell’interazione tra la Corte di Strasburgo e la Corte costituzionale e i giudici ordinari. L’analisi del profilo statico concernente lo status della Cedu nel sistema italiano deve quindi essere accompagnata dall’esame del profilo dinamico, relativo al ruolo della giurisprudenza della Corte di Strasburgo nell’esperienza dell’ordinamento nazionale. Entrambi i profili di indagine sono esaminati alla luce delle indicazioni provenienti dalla giurisprudenza della Corte costituzionale, della Corte di Cassazione e della Corte di Strasburgo. Prima di essere esaminate singolarmente, queste tematiche richiedono la preliminare ricognizione dei termini della dicotomia tra i due modelli concettuali di riferimento in tema di rapporti interordinamentali: il monismo e il dualismo. Trasferite nel peculiare contesto del sistema Cedu, tali categorie dogmatiche si arricchiscono di ulteriori profili, che esorbitano dalla sistemazione del rapporto tra fonti. La tenuta dei due paradigmi concettuali, che sono nati ed operano nel contesto della teorica delle fonti, deve essere verificata anche rispetto all’attuale fenomeno della produzione europea di diritto giurisprudenziale ed alla capacità paradigmatica assunta dalla giurisprudenza di Strasburgo. Il diritto e le istituzioni giuridiche tendono ad assumere sempre più sembianze giurisdizionali, generando un’osmosi che porta a trasferire il focus dai rapporti interordinamentali ai rapporti tra giurisprudenze.
Resumo:
Desde tiempos inmemoriales, la presencia de sujetos encargados de la administración del patrimonio del concursado ha sido consustancial a la existencia de procesos en los que se declaraba la insolvencia del deudor. Tradicionalmente, estos sujetos ostentaban un papel de singular alcance para el correcto desarrollo del concurso. En la actualidad se erigen en el motor del concurso. El vasto cometido atribuido a la administración concursal nos obliga a restringir nuestra investigación. En particular, centraremos nuestra atención en la posición jurídico procesal de la administración concursal en aquellas actuaciones que desarrolla ésta a la hora de determinar el patrimonio concursal. Para ello, partiendo de las líneas generales que a través de la historia han definido a los órganos de administración concursal, analizaremos el régimen jurídico de la actual administración concursal en España. A continuación, estudiaremos la naturaleza jurídica de la limitación a las facultades patrimoniales que sufre el deudor con la declaración de concurso y el reconocimiento que, como parte procesal, le atribuye la Ley de Enjuiciamiento Civil al patrimonio concursal. Todo ello, nos permitirá pronunciarnos sobre la referida posición de la administración concursal, como parte o como representante. Tras lo descrito, nos ocuparemos de determinar la posición que ocupa la administración concursal en aquellos procesos que ya estuvieran pendientes en el momento de la declaración de concurso y aquellos otros procesos nuevos que inicia aquella por su propia iniciativa. Por último, analizaremos la descrita posición procesal en el ejercicio de acciones de reintegración y demás de impugnación así como en aquellos supuestos en los que se impugna el inventario o la lista de acreedores.
Resumo:
Nel contesto della tesi è stata sviluppata un'applicazione di Realtà Aumentata per tablet Android nell'ambito dell'interior design. Dopo aver acquisito un'istantanea con la fotocamera del dispositivo di un ambiente interno, è possibile selezionare attraverso un "tocco" sul display il rivestimento (pavimento o parete) di cui si vuole simulare il cambiamento di colore o texture. Una volta individuata ed evidenziata l'area di interesse, in tempo reale è possibile cambiare interattivamente l'aspetto del rivestimento precedentemente selezionato. La tesi si focalizza sulla ricerca di un metodo che consenta di avere una segmentazione accurata della superficie di interesse. L'algoritmo di segmentazione studiato, utilizzato nell'applicazione di Realtà Aumentata, è sviluppato nel contesto della collaborazione tra il Computer Vision Group (CVG), coordinato dal Prof. Alessandro Bevilacqua e Maticad S.r.l., un'azienda che opera nel settore dell'Information Technology, Distributed Applications, Internet e Computer Grafica, presso la quale ho effettuato un periodo di tirocinio. Maticad, oltre a software per pc desktop, sviluppa applicazioni per iOS e in questo contesto, durante il tirocinio, ho sviluppata un'applicazione demo per iOS 7 volta a studiare le prestazioni dei sensori (ottico, inerziali, magnetici), in vista di un futuro porting dell'applicazione su quel sistema operativo.
Resumo:
L'obbiettivo della tesi è quello di sviluppare una semplice web application per la creazione di fatture. La caratteristica principale è l'integrazione delle funzionalità di Google Drive permettendo all'utente di archiviare e condividere con pochi click le fatture con i clienti. L'utente potrà creare, personalizzare, salvare, archiviare e condividere le proprie ricevute in tempo reale. In questo documento verrà analizzato il processo di sviluppo del software che comprenderà: analisi dei requisiti, progettazione, sviluppo (scelte implementative), test e sviluppi futuri. Verranno anche documentate le tecnologie utilizzate al fine di raggiungere il prodotto finale.
Resumo:
L’obiettivo che si pone questa tesi è quello di analizzare alcune soluzioni esistenti riguardo i problemi riguardanti privacy e sicurezza informatica. Nello specifico sarà illustrato il programma Tor, un sistema di comunicazione grazie al quale si garantisce l’anonimato in Internet. Sponsorizzato inizialmente dall’US Naval Research Laboratory, all’origine veniva utilizzato per poter effettuare comunicazioni militari criptate; è stato successivamente un progetto della Electronic Frontier Foundation ed ora è gestito da The Tor Project, un’associazione senza scopo di lucro che si occupa del relativo sviluppo. Le ricerche e gli sviluppi riguardanti questa tecnologia vengono tuttavia resi difficili da problemi di scalabilità e dalla difficoltà di riprodurre risultati affidabili. Nel corso della tesi saranno illustrati gli studi riguardanti il simulatore Shadow, un progetto Open Source gestito da The Tor Project, che permette la simulazione del protocollo Tor. I risultati ottenuti dai test effettuati sul simulatore, possono essere riapplicati in seguito alla rete reale Tor, poiché grazie a Shadow è possibile testare ed ottenere risultati attendibili circa il comportamento e la corretta esecuzione del software Tor.
Resumo:
Con questo progetto ci si propone di creare un'applicazione per i device mobili intelligenti, in particolare smartphone e smartwatch, con sistema operativo Android, in grado di rilevare una caduta con il conseguente invio automatico di un messaggio di allarme mirato a richiamare i soccorsi in tempo reale. Data la funzionalità, l'app è stata principalmente progettata per un utente di età avanzata.
Resumo:
Il lavoro è parte integrante di un progetto di ricerca del Ministero della Salute ed è stato sviluppato presso la Fisica Sanitaria ed il reparto di Radioterapia Oncologica dell’Azienda Ospedaliero Universitaria di Modena. L’obiettivo è la realizzazione di modelli predittivi e di reti neurali per tecniche di warping in ambito clinico. Modifiche volumetrico-spaziali di organi a rischio e target tumorali, durante trattamenti tomoterapici, possono alterare la distribuzione di dose rispetto ai constraints delineati in fase di pianificazione. Metodologie radioterapiche per la valutazione di organ motion e algoritmi di registrazione ibrida permettono di generare automaticamente ROI deformate e quantificare la divergenza dal piano di trattamento iniziale. Lo studio si focalizzata sulle tecniche di Adaptive Radiation Therapy (ART) mediante la meta-analisi di 51 pazienti sottoposti a trattamento mediante Tomotherapy. Studiando il comportamento statistico del campione, sono state generate analisi predittive per quantificare in tempo reale divergenze anatomico dosimetriche dei pazienti rispetto al piano originale e prevedere la loro ripianificazione terapeutica. I modelli sono stati implementati in MATLAB, mediante Cluster Analysis e Support Vector Machines; l’analisi del dataset ha evidenziato il valore aggiunto apportabile dagli algoritmi di deformazione e dalle tecniche di ART. La specificità e sensibilità della metodica è stata validata mediante l’utilizzo di analisi ROC. Gli sviluppi del presente lavoro hanno aperto una prospettiva di ricerca e utilizzo in trattamenti multicentrici e per la valutazione di efficacia ed efficienza delle nuove tecnologie in ambito RT.
Resumo:
I tre capitoli in cui è suddiviso il lavoro cercano di offrire una ricognizione delle questioni che ruotano intorno alla sussistenza o meno di prerogative presidenziali riguardo l’attività legislativa, e in generale sulle eventuali trasformazioni avvenute, soprattutto negli ultimi anni, nel ruolo del Presidente della Repubblica all’interno del sistema costituzionale italiano. Il lavoro esordisce con una premessa metodologica con cui si tenta di valorizzare la questione relativa ai diversi approcci metodologici che si possono seguire nello studio delle tematiche presidenziali: ossia, tenere nettamente distinti il piano delle norme da quello delle prassi oppure analizzarli e valutarli congiuntamente. Il primo capitolo è dedicato all’analisi della figura presidenziale così come delineata dalla Costituzione e arricchita dagli oltre sessant’anni di letteratura costituzionale. Vengono quindi analizzate le disposizioni costituzionali di riferimento e viene dato conto delle principali teorie costituzionali espresse dalla letteratura giuridica. Il secondo capitolo è dedicato a quella che viene offerta come una delle possibili cause da cui traggono origine le evoluzioni registrate in questi ultimi anni dalla figura presidenziale: ossia, il mutamento del sistema costituzionale di rappresentanza politica. Tale elemento è analizzato soprattutto nel suo ambito istituzionale, vale a dire il modello di forma di governo rappresentato dal circuito parlamento-governo. Il terzo capitolo entra direttamente nelle due questioni di fondo della ricerca: da un lato lo studio della generale attività presidenziale di intervento nelle questioni politiche, attraverso comunicati o esternazioni; dall’altro lato l’analisi di alcuni specifici casi paradigmatici di intervento presidenziale in sede di emanazione o promulgazione (o, comunque, discussione) degli atti legislativi del governo e del parlamento, accaduti tra il 2006 e il 2013. Inoltre, il lavoro è arricchito da una importante sezione (allegata) di “case studies” contenente il risultato di una ricerca effettuata su oltre tremila documenti presidenziali, dal 2006 al 2013, resi pubblici dagli uffici del Quirinale.
Resumo:
The wide diffusion of cheap, small, and portable sensors integrated in an unprecedented large variety of devices and the availability of almost ubiquitous Internet connectivity make it possible to collect an unprecedented amount of real time information about the environment we live in. These data streams, if properly and timely analyzed, can be exploited to build new intelligent and pervasive services that have the potential of improving people's quality of life in a variety of cross concerning domains such as entertainment, health-care, or energy management. The large heterogeneity of application domains, however, calls for a middleware-level infrastructure that can effectively support their different quality requirements. In this thesis we study the challenges related to the provisioning of differentiated quality-of-service (QoS) during the processing of data streams produced in pervasive environments. We analyze the trade-offs between guaranteed quality, cost, and scalability in streams distribution and processing by surveying existing state-of-the-art solutions and identifying and exploring their weaknesses. We propose an original model for QoS-centric distributed stream processing in data centers and we present Quasit, its prototype implementation offering a scalable and extensible platform that can be used by researchers to implement and validate novel QoS-enforcement mechanisms. To support our study, we also explore an original class of weaker quality guarantees that can reduce costs when application semantics do not require strict quality enforcement. We validate the effectiveness of this idea in a practical use-case scenario that investigates partial fault-tolerance policies in stream processing by performing a large experimental study on the prototype of our novel LAAR dynamic replication technique. Our modeling, prototyping, and experimental work demonstrates that, by providing data distribution and processing middleware with application-level knowledge of the different quality requirements associated to different pervasive data flows, it is possible to improve system scalability while reducing costs.
Resumo:
The present work is a collection of three essays devoted at understanding the determinants and implications of the adoption of environmental innovations EI by firms, by adopting different but strictly related schumpeterian perspectives. Each of the essays is an empirical analysis that investigates one original research question, formulated to properly fill the gaps that emerged in previous literature, as the broad introduction of this thesis outlines. The first Chapter is devoted at understanding the determinants of EI by focusing on the role that knowledge sources external to the boundaries of the firm, such as those coming from business suppliers or customers or even research organizations, play in spurring their adoption. The second Chapter answers the question on what induces climate change technologies, adopting regional and sectoral lens, and explores the relation among green knowledge generation, inducement in climate change and environmental performances. Chapter 3 analyzes the economic implications of the adoption of EI for firms, and proposes to disentangle EI by different typologies of innovations, such as externality reducing innovations and energy and resource efficient innovations. Each Chapter exploits different dataset and heterogeneous econometric models, that allow a better extension of the results and to overcome the limits that the choice of one dataset with respect to its alternatives engenders. The first and third Chapter are based on an empirical investigation on microdata, i.e. firm level data extracted from innovation surveys. The second Chapter is based on the analysis of patent data in green technologies that have been extracted by the PATSTAT and REGPAT database. A general conclusive Chapter will follow the three essays and will outline how each Chapter filled the research gaps that emerged, how its results can be interpreted, which policy implications can be derived and which are the possible future lines of research in the field.
Resumo:
Uno dei problemi più diffusi, nell'ambito della logistica, è rappresentato dai costi di trasporto. La gestione dei flussi merci, l'approvvigionamento dei clienti, e la relativa pianifcazione della movimentazione dei veicoli, hanno incidenze notevoli sui costi di gestione aziendali, i quali vengono stimati mediamente nel 45% dei costi logistici. A ragione di questo, sono sempre di più le aziende che ricorrono all'impiego di uffici dedicati alla pianifcazione delle consegne e la gestione dei trasporti in generale. Sebbene le voci di bilancio relative al trasporto raggiungano cifre rilevanti, fno al 4% del fatturato annuo, il tema della pianifcazione viene spesso sottovalutato. Infatti la soluzione a problemi di pianifcazione e monitoraggio dei costi, è spesso demandata a procedure manuali senza supporto informatico. Nasce da qui l'esigenza di proporre uno strumento informatico che supporti gli addetti preposti alla pianifcazione, sviluppando un sistema che copra esigenze di pianifcazione dei viaggi, controllo e consuntivazione dei costi di trasporto, e monitoraggio dei mezzi in tempo reale. La proposta di Gesp srl, Geographic Information Systems, azienda italiana che opera da anni nel campo delle applicazioni software geo-spaziali, prende il nome di Nuovo Sistema Trasporti, o più semplicemente, NST. In quest'ambito prende corpo questa tesi, la quale si pone l'obiettivo di illustrare le fasi di nascita, analisi, progettazione e sviluppo di un software generico per il supporto alla logistica. Saranno così analizzati: le problematiche affrontate nella fase di defnizione, e kick-off (avvio), del progetto, il problema del routing, o Vehicle Routing Problem e le tecniche di Ricerca Operativa che vengono applicate per la sua risoluzione; le moderne metodologie di gestione e sviluppo di un software; l'architettura e le tecnologie impiegate per la distribuzione dell'applicativo.
Resumo:
The present doctoral thesis is structured as a collection of three essays. The first essay, “SOC(HE)-Italy: a classification for graduate occupations” presents the conceptual basis, the construction, the validation and the application to the Italian labour force of the occupational classification termed SOC(HE)-Italy. I have developed this classification under the supervision of Kate Purcell during my period as a visiting research student at the Warwick Institute for Emplyment Research. This classification links the constituent tasks and duties of a particular job to the relevant knowledge and skills imparted via Higher Education (HE). It is based onto the SOC(HE)2010, an occupational classification first proposed by Kate Purcell in 2013, but differently constructed. In the second essay “Assessing the incidence and wage effects of overeducation among Italian graduates using a new measure for educational requirements” I utilize this classification to build a valid and reliable measure for job requirements. The lack of an unbiased measure for this dimension constitutes one of the major constraints to achieve a generally accepted measurement of overeducation. Estimations of overeducation incidence and wage effects are run onto AlmaLaurea data from the survey on graduates career paths. I have written this essay and obtained these estimates benefiting of the help and guidance of Giovanni Guidetti and Giulio Pedrini. The third and last essay titled “Overeducation in the Italian labour market: clarifying the concepts and addressing the measurement error problem” addresses a number of theoretical issues concerning the concepts of educational mismatch and overeducation. Using Istat data from RCFL survey I run estimates of the ORU model for the whole Italian labour force. In my knowledge, this is the first time ever such model is estimated on such population. In addition, I adopt the new measure of overeducation based onto the SOC(HE)-Italy classification.
Resumo:
The dissertation contains five parts: An introduction, three major chapters, and a short conclusion. The First Chapter starts from a survey and discussion of the studies on corporate law and financial development literature. The commonly used methods in these cross-sectional analyses are biased as legal origins are no longer valid instruments. Hence, the model uncertainty becomes a salient problem. The Bayesian Model Averaging algorithm is applied to test the robustness of empirical results in Djankov et al. (2008). The analysis finds that their constructed legal index is not robustly correlated with most of the various stock market outcome variables. The second Chapter looks into the effects of minority shareholders protection in corporate governance regime on entrepreneurs' ex ante incentives to undertake IPO. Most of the current literature focuses on the beneficial part of minority shareholder protection on valuation, while overlooks its private costs on entrepreneur's control. As a result, the entrepreneur trade-offs the costs of monitoring with the benefits of cheap sources of finance when minority shareholder protection improves. The theoretical predictions are empirically tested using panel data and GMM-sys estimator. The third Chapter investigates the corporate law and corporate governance reform in China. The corporate law in China regards shareholder control as the means to the ends of pursuing the interests of stakeholders, which is inefficient. The Chapter combines the recent development of theories of the firm, i.e., the team production theory and the property rights theory, to solve such problem. The enlightened shareholder value, which emphasizes on the long term valuation of the firm, should be adopted as objectives of listed firms. In addition, a move from the mandatory division of power between shareholder meeting and board meeting to the default regime, is proposed.
Resumo:
Il web ha cambiato radicalmente le nostre vite. Grazie ad esso, oggi si possono fare cose che solo qualche decennio fa erano pura fantascienza, come ad esempio la telepresenza o gli interventi chirurgici da remoto, ma anche cose più “semplici” come seguire corsi di formazione (anche universitaria), effettuare la spesa, operare con il proprio conto corrente, tutto restando comodamente a casa propria, semplificando così la vita di tutti. Allo stesso tempo il web è stato utilizzato per fini tutt’altro che nobili, ad esempio per commettere crimini informatici, recare danni alla concorrenza, compiere varie forme di truffe ecc. Ogni persona dovrebbe comportarsi in modo corretto e nel pieno rispetto del prossimo, sia sul mondo reale che sul web, ma purtroppo non è sempre così. Per quanto riguarda il mondo del web, sta agli sviluppatori soddisfare le necessità dei propri utenti, assicurandosi però che la propria applicazione non verrà usata per recare qualche tipo di danno a terzi o alla propria infrastruttura. Questa tesi nasce da un idea dei docenti del corso di Programmazione riguardo alla realizzazione di un modulo del sito web del corso che si occupa della correzione automatica di esercizi scritti in linguaggio C dagli studenti del corso, dove per correzione automatica si intende la verifica della correttezza degli esercizi.