968 resultados para Execution semantics
Resumo:
Many psychophysical studies suggest that target depth and direction during reaches are processed independently, but the neurophysiological support to this view is so far limited. Here, we investigated the representation of reach depth and direction by single neurons in an area of the medial posterior parietal cortex (V6A). Single-unit activity was recorded from V6A in two Macaca fascicularis monkeys performing a fixation-to-reach task to targets at different depths and directions. We found that in a substantial percentage of V6A neurons depth and direction signals jointly influenced fixation, planning and arm movement-related activity in 3D space. While target depth and direction were equally encoded during fixation, depth tuning became stronger during arm movement planning, execution and target holding. The spatial tuning of fixation activity was often maintained across epochs, and this occurred more frequently in depth. These findings support for the first time the existence of a common neural substrate for the encoding of target depth and direction during reaching movements in the posterior parietal cortex. Present results also highlight the presence in V6A of several types of cells that process independently or jointly eye position and arm movement planning and execution signals in order to control reaches in 3D space. It is possible that depth and direction influence also the metrics of the reach action and that this effect on the reach kinematic variables can account for the spatial tuning we found in V6A neural activity. For this reason, we recorded and analyzed behavioral data when one monkey performed reaching movements in 3-D space. We evaluated how the target spatial position, in particular target depth and target direction, affected the kinematic parameters and trajectories describing the motor action properties.
Resumo:
We usually perform actions in a dynamic environment and changes in the location of a target for an upcoming action require both covert shifts of attention and motor planning update. In this study we tested whether, similarly to oculomotor areas that provide signals for overt and covert attention shifts, covert attention shifts modulate activity in cortical area V6A, which provides a bridge between visual signals and arm-motor control. We performed single cell recordings in monkeys trained to fixate straight-ahead while shifting attention outward to a peripheral cue and inward again to the fixation point. We found that neurons in V6A are influenced by spatial attention demonstrating that visual, motor, and attentional responses can occur in combination in single neurons of V6A. This modulation in an area primarily involved in visuo-motor transformation for reaching suggests that also reach-related regions could directly contribute in the shifts of spatial attention necessary to plan and control goal-directed arm movements. Moreover, to test whether V6A is causally involved in these processes, we have performed a human study using on-line repetitive transcranial magnetic stimulation over the putative human V6A (pV6A) during an attention and a reaching task requiring covert shifts of attention and reaching movements towards cued targets in space. We demonstrate that the pV6A is causally involved in attention reorienting to target detection and that this process interferes with the execution of reaching movements towards unattended targets. The current findings suggest the direct involvement of the action-related dorso-medial visual stream in attentional processes, and a more specific role of V6A in attention reorienting. Therefore, we propose that attention signals are used by the V6A to rapidly update the current motor plan or the ongoing action when a behaviorally relevant object unexpectedly appears at an unattended location.
Resumo:
Affrontare il tema del conferimento di azienda, così come esaminare ogni aspetto inerente, più in generale, l'azienda, può apparire estremamente arduo e complicato, stante il rischio di ripetere, in modo quasi scontato, "cose già dette" nel corso degli anni, prendendo le mosse da contributi noti ed arcinoti, soprattutto con riferimento alla disciplina dell'imprenditore commerciale, ossia alla prima tematica che viene presa in considerazione da parte del neofita del diritto commerciale. Tuttavia, a ben vedere, l'esaustività e completezza di tali studi non impedisce di affrontare, nell'attualità, alcuni aspetti che, anche grazie ai continui interventi del legislatore, presentano elementi degni di approfondimento. In tale ottica, quindi, è stato impostato il presente lavoro di ricerca. Così, ad un primo capitolo prevalentemente compilativo e volto ad individuare, nell'ordinamento giuridico, tutte le disposizioni che possono assumere rilevanza nell'inquadramento della disciplina del conferimento di azienda, nonchè le nozioni base di tale operazione, ne seguono altri due che si caratterizzano, rispettivamente: a) l'uno (il secondo capitolo), quale concreta individuazione delle modalità di esecuzione dell'operazione di conferimento di azienda, dalla decisione di procedere in tal senso, alla concreta esecuzione dell'apporto; b) l'altro (il terzo capitolo), quale esame di alcuni aspetti problematici che emergono a seguito dell'esecuzione dell'apporto, sia con riferimento agli effetti prodotti nei rapporti ricompresi nell'oggetto dell'apporto, sia con riferimento al ruolo dei diversi soggetti che, direttamente e/o indirettamente, ne subiscono i riflessi. In entrambi i capitoli (due e tre), peraltro, si affrontano non solo aspetti connessi alla disciplina dell'impresa ancora in bonis, ma anche, data l'attualità degli interventi operati dal legislatore nell'ambito della risoluzione della crisi dell'impresa, le questioni inerenti l'utilizzo di tale operazione quale forma di liquidazione dell'attivo. Si chiude l'elaborato con alcune riflessioni inerenti le forme di reazione agli abusi che, sovente, caratterizzano l'apporto dell'azienda.
Resumo:
Le considerazioni sviluppate in questo scritto si pongono come obiettivo quello di fare chiarezza sul delicato tema delle opere di urbanizzazione a scomputo. La normativa concernente la realizzazione delle opere pubbliche a scomputo totale o parziale degli oneri di urbanizzazione è stata oggetto di svariate modifiche e interpretazioni giurisprudenziali, che si sono susseguite dopo l'importante pronuncia della Corte di Giustizia Europea. E' con questa sentenza che i Giudici del Kirchberg introducono un particolare obbligo procedurale a carico dei privati: nel caso in cui singole opere superino i valori di rilevanza europea, esse devono essere affidate, applicando le procedure di gara previste dalla direttiva 37/93/CEE. Va precisato che sino a quel momento l'affidamento diretto delle opere al privato costituiva nell'ottica del Legislatore lo strumento per realizzare le infrastrutture necessarie per consentire gli insediamenti edilizi che la pubblica amministrazione spesso non era in grado di effettuare. In questo panorama legislativo la sentenza della Corte di Giustizia, appare del tutto dirompente. Infatti, introducendo il principio secondo cui anche la realizzazione diretta delle opere di urbanizzazione da parte del privato deve sottostare alle regole delle procedure europee in materia di appalti, mette inevitabilmente a confronto due normative, quella degli appalti pubblici e quella dell'urbanistica, che sino a quel momento erano riuscite a viaggiare in modo parallelo, senza dar luogo a reciproche sovrapposizioni. Il Legislatore nazionale ha, con molta fatica, recepito il principio comunitario ed è stato negli anni quasi costretto, attraverso una serie di modifiche legislative, ad ampliarne la portata. La presente ricerca, dopo aver analizzato i vari correttivi apportati al Codice degli appalti pubblici vuole, quindi, verificare se l'attuale quadro normativo rappresenti un vero punto di equilibrio tra le contrapposte esigenze di pianificazione del territorio e di rispetto dei principi comunitari di concorrenza nella scelta del contraente.
Non-normal modal logics, quantification, and deontic dilemmas. A study in multi-relational semantics
Resumo:
This dissertation is devoted to the study of non-normal (modal) systems for deontic logics, both on the propositional level, and on the first order one. In particular we developed our study the Multi-relational setting that generalises standard Kripke Semantics. We present new completeness results concerning the semantic setting of several systems which are able to handle normative dilemmas and conflicts. Although primarily driven by issues related to the legal and moral field, these results are also relevant for the more theoretical field of Modal Logic itself, as we propose a syntactical, and semantic study of intermediate systems between the classical propositional calculus CPC and the minimal normal modal logic K.
Resumo:
The aim of my thesis is to parallelize the Weighting Histogram Analysis Method (WHAM), which is a popular algorithm used to calculate the Free Energy of a molucular system in Molecular Dynamics simulations. WHAM works in post processing in cooperation with another algorithm called Umbrella Sampling. Umbrella Sampling has the purpose to add a biasing in the potential energy of the system in order to force the system to sample a specific region in the configurational space. Several N independent simulations are performed in order to sample all the region of interest. Subsequently, the WHAM algorithm is used to estimate the original system energy starting from the N atomic trajectories. The parallelization of WHAM has been performed through CUDA, a language that allows to work in GPUs of NVIDIA graphic cards, which have a parallel achitecture. The parallel implementation may sensibly speed up the WHAM execution compared to previous serial CPU imlementations. However, the WHAM CPU code presents some temporal criticalities to very high numbers of interactions. The algorithm has been written in C++ and executed in UNIX systems provided with NVIDIA graphic cards. The results were satisfying obtaining an increase of performances when the model was executed on graphics cards with compute capability greater. Nonetheless, the GPUs used to test the algorithm is quite old and not designated for scientific calculations. It is likely that a further performance increase will be obtained if the algorithm would be executed in clusters of GPU at high level of computational efficiency. The thesis is organized in the following way: I will first describe the mathematical formulation of Umbrella Sampling and WHAM algorithm with their apllications in the study of ionic channels and in Molecular Docking (Chapter 1); then, I will present the CUDA architectures used to implement the model (Chapter 2); and finally, the results obtained on model systems will be presented (Chapter 3).
Resumo:
Modern software systems, in particular distributed ones, are everywhere around us and are at the basis of our everyday activities. Hence, guaranteeing their cor- rectness, consistency and safety is of paramount importance. Their complexity makes the verification of such properties a very challenging task. It is natural to expect that these systems are reliable and above all usable. i) In order to be reliable, compositional models of software systems need to account for consistent dynamic reconfiguration, i.e., changing at runtime the communication patterns of a program. ii) In order to be useful, compositional models of software systems need to account for interaction, which can be seen as communication patterns among components which collaborate together to achieve a common task. The aim of the Ph.D. was to develop powerful techniques based on formal methods for the verification of correctness, consistency and safety properties related to dynamic reconfiguration and communication in complex distributed systems. In particular, static analysis techniques based on types and type systems appeared to be an adequate methodology, considering their success in guaranteeing not only basic safety properties, but also more sophisticated ones like, deadlock or livelock freedom in a concurrent setting. The main contributions of this dissertation are twofold. i) On the components side: we design types and a type system for a concurrent object-oriented calculus to statically ensure consistency of dynamic reconfigurations related to modifications of communication patterns in a program during execution time. ii) On the communication side: we study advanced safety properties related to communication in complex distributed systems like deadlock-freedom, livelock- freedom and progress. Most importantly, we exploit an encoding of types and terms of a typical distributed language, session π-calculus, into the standard typed π- calculus, in order to understand their expressive power.
Resumo:
This thesis deals with heterogeneous architectures in standard workstations. Heterogeneous architectures represent an appealing alternative to traditional supercomputers because they are based on commodity components fabricated in large quantities. Hence their price-performance ratio is unparalleled in the world of high performance computing (HPC). In particular, different aspects related to the performance and consumption of heterogeneous architectures have been explored. The thesis initially focuses on an efficient implementation of a parallel application, where the execution time is dominated by an high number of floating point instructions. Then the thesis touches the central problem of efficient management of power peaks in heterogeneous computing systems. Finally it discusses a memory-bounded problem, where the execution time is dominated by the memory latency. Specifically, the following main contributions have been carried out: A novel framework for the design and analysis of solar field for Central Receiver Systems (CRS) has been developed. The implementation based on desktop workstation equipped with multiple Graphics Processing Units (GPUs) is motivated by the need to have an accurate and fast simulation environment for studying mirror imperfection and non-planar geometries. Secondly, a power-aware scheduling algorithm on heterogeneous CPU-GPU architectures, based on an efficient distribution of the computing workload to the resources, has been realized. The scheduler manages the resources of several computing nodes with a view to reducing the peak power. The two main contributions of this work follow: the approach reduces the supply cost due to high peak power whilst having negligible impact on the parallelism of computational nodes. from another point of view the developed model allows designer to increase the number of cores without increasing the capacity of the power supply unit. Finally, an implementation for efficient graph exploration on reconfigurable architectures is presented. The purpose is to accelerate graph exploration, reducing the number of random memory accesses.
Resumo:
The Curry-Howard isomorphism is the idea that proofs in natural deduction can be put in correspondence with lambda terms in such a way that this correspondence is preserved by normalization. The concept can be extended from Intuitionistic Logic to other systems, such as Linear Logic. One of the nice conseguences of this isomorphism is that we can reason about functional programs with formal tools which are typical of proof systems: such analysis can also include quantitative qualities of programs, such as the number of steps it takes to terminate. Another is the possiblity to describe the execution of these programs in terms of abstract machines. In 1990 Griffin proved that the correspondence can be extended to Classical Logic and control operators. That is, Classical Logic adds the possiblity to manipulate continuations. In this thesis we see how the things we described above work in this larger context.
Resumo:
The development of High-Integrity Real-Time Systems has a high footprint in terms of human, material and schedule costs. Factoring functional, reusable logic in the application favors incremental development and contains costs. Yet, achieving incrementality in the timing behavior is a much harder problem. Complex features at all levels of the execution stack, aimed to boost average-case performance, exhibit timing behavior highly dependent on execution history, which wrecks time composability and incrementaility with it. Our goal here is to restitute time composability to the execution stack, working bottom up across it. We first characterize time composability without making assumptions on the system architecture or the software deployment to it. Later, we focus on the role played by the real-time operating system in our pursuit. Initially we consider single-core processors and, becoming less permissive on the admissible hardware features, we devise solutions that restore a convincing degree of time composability. To show what can be done for real, we developed TiCOS, an ARINC-compliant kernel, and re-designed ORK+, a kernel for Ada Ravenscar runtimes. In that work, we added support for limited-preemption to ORK+, an absolute premiere in the landscape of real-word kernels. Our implementation allows resource sharing to co-exist with limited-preemptive scheduling, which extends state of the art. We then turn our attention to multicore architectures, first considering partitioned systems, for which we achieve results close to those obtained for single-core processors. Subsequently, we shy away from the over-provision of those systems and consider less restrictive uses of homogeneous multiprocessors, where the scheduling algorithm is key to high schedulable utilization. To that end we single out RUN, a promising baseline, and extend it to SPRINT, which supports sporadic task sets, hence matches real-world industrial needs better. To corroborate our results we present findings from real-world case studies from avionic industry.
Resumo:
L’effettività della tutela cautelare, intesa come tutela tempestiva, adeguata e piena, è stata la linea cardine dell’evoluzione della giustizia amministrativa, che, nel corso di un periodo durato più di un secolo, grazie all’opera della giurisprudenza e della dottrina, si è strutturata oggi su un vero processo. Approdo recente, e allo stesso tempo, simbolo di questa evoluzione, è sicuramente il Codice del processo amministrativo emanato con il d. lgs. 2 luglio 2010, n. 104. La ricerca, di cui questo contributo costituisce un resoconto, è iniziata contestualmente all’entrata in vigore del nuovo testo, e quindi è stata anche l’occasione per vederne le prime applicazioni giurisprudenziali. In particolare la lettura del Codice, prescindendo da una mera ricognizione di tutto il suo lungo articolato, è stata fatta alla luce di una ponderazione, nell’attualità, non solo del principio di effettività, ma anche del principio di strumentalità che lega tradizionalmente la fase cautelare con la fase di merito. I risultati della ricerca manifestano la volontà del legislatore di confermare questo rapporto strumentale, per fronteggiare una deriva incontrollata verso una cautela dagli effetti alle volte irreversibili, quale verificatasi nell’applicazione giurisprudenziale, ma contestualmente evidenziano la volontà di estendere la portata della tutela cautelare. Guardando a cosa sia diventata oggi la tutela cautelare, si è assistito ad un rafforzamento degli effetti conformativi, tipici delle sentenze di merito ma che si sono estesi alla fase cautelare. I giudici, pur consapevoli che la tutela cautelare non sia una risposta a cognizione piena, bensì sommaria, intendono comunque garantire una tutela tempestiva ed effettiva, anche per il tramite di tecniche processuali particolari, come quella del remand, cui, all’interno della ricerca, viene dedicato ampio spazio. Nella sua ultima parte la ricerca si è focalizzata, sempre volendo guardare in maniera globale agli effetti della tutela cautelare, sul momento dell’esecuzione e quindi sul giudizio di ottemperanza.
Resumo:
Il lavoro mira a fornire un complessivo inquadramento dell'istituto della società mista, identificato in primo luogo quale strumento di diritto privato a cui partecipano soggetti pubblici e soggetti privati. L'indagine si svolge su differenti piani di valutazione. Si dà ragione delle caratteristiche peculiari di tale contratto associativo e dei limiti che il nostro ordinamento impone allo sviluppo della figura. L'attenzione si sposta poi sulla specifica declinazione che il modello di società mista ha assunto in ambito europeo attraverso l'analisi del partenariato pubblico privato istituzionalizzato. L'istituto è di particolare interesse perchè individua nella società mista un modello organizzativo dai tratti specifici, all'interno del quale il ruolo del socio privato assume connotazioni e forme non comuni a tutti i modelli societari. La ricerca mira a mostrare come tale figura ha trovato riscontro nell'ordinamento interno e quali possibili sviluppi la stessa possa trovare in differenti campi della vita economica. In questi termini, si cerca di valutare quale sia l'incidenza delle procedure competitive nella costituzione e nella vita della società mista ed in che termini lo svolgimento delle attività affidate al socio privato debba essere inquadrato all'interno del rapporto di partenariato. Sul punto è centrale la declinazione fornita all'istituto in relazione ad uno specifico ambito di attività: i servizi pubblici locali di rilevanza economica. In questo contesto, particolarmente rilevante sul piano sistematico è la ricerca di un equilibrio tra il rispetto delle disciplina posta a tutela della concorrenza, ed il perseguimento delle finalità che hanno portato alla scelta di costruire una società mista. La scelta in favore di tale modello organizzativo pare infatti giustificata solo qualora essa apporti un reale vantaggio nella gestione del servizio e la realizzazione di concrete sinergie positive.
Resumo:
La presente tesis analiza el problema de la validez de las disposiciones de transposición de las Directivas Europeas en los ordenamientos nacionales desde la perspectiva del principio constitucional de reserva de ley. En el primer capítulo se desarrolla un análisis del estado de la cuestión en las jurisprudencias española e italiana. En el segundo se afronta el estudio de los requisitos impuestos por la jurisprudencia del TJUE en relación con las normas por las que se procede a la incorporación en los ordenamientos internos del contenido de las Directivas; teniendo en cuenta que ha de partirse del principio de autonomía institucional y procedimental de los Estados Miembros y que las Directivas, en tanto carentes por razón de su forma de directa aplicabilidad, no pueden sustituir a la ley nacional, el principio de reserva de ley ha de aplicarse en este tipo de operaciones siempre que así lo exija la Constitución nacional. En el tercer capítulo se estudian los efectos que han producido en los ordenamientos italiano, francés y alemán las cláusulas constitucionales "europeas", alcanzándose la fundamental conclusión de que las mismas no han supuesto quiebra alguna de la disciplina general de producción normativa en lo que se refiere a las operaciones de ejecución interna del Derecho Europeo. En el cuarto y último capítulo, en fin, se analiza el sistema italiano de ejecución de las políticas europeas mediante normas reglamentarias y la posible toma en consideración del mismo para la formulación de propuestas de lege ferenda en relación con el Derecho Español.
Resumo:
La Confraternita bolognese di S. Maria della Morte, istituita nel 1336 sull’onda della predicazione del frate domenicano Venturino da Bergamo, è la più antica e meglio documentata compagnia italiana ‘di giustizia’. Possedeva un laudario conosciuto attraverso 12 manoscritti redatti tra XV e XVI secolo, dove le laude seguono il “confortatorio” che insegnava ai confratelli come relazionarsi col condannato e prepararlo a morire in perfetto spirito cristiano. Nelle laude l’identificazione poetica tra Cristo e il condannato era funzionale allo scopo di convertire il criminale in santo, convincendolo che la sua morte aveva una funzione redentrice per sé e la città stessa. L’assoluzione plenaria poteva essere ottenuta solo tramite una morte completamente accettata e un pentimento sincero. La dissertazione indaga le tematiche espresse dalle laude e le motivazioni forti che spingevano i confortatori a intraprendere questa peculiare attività assistenziale.
Resumo:
Combinatorial Optimization is becoming ever more crucial, in these days. From natural sciences to economics, passing through urban centers administration and personnel management, methodologies and algorithms with a strong theoretical background and a consolidated real-word effectiveness is more and more requested, in order to find, quickly, good solutions to complex strategical problems. Resource optimization is, nowadays, a fundamental ground for building the basements of successful projects. From the theoretical point of view, Combinatorial Optimization rests on stable and strong foundations, that allow researchers to face ever more challenging problems. However, from the application point of view, it seems that the rate of theoretical developments cannot cope with that enjoyed by modern hardware technologies, especially with reference to the one of processors industry. In this work we propose new parallel algorithms, designed for exploiting the new parallel architectures available on the market. We found that, exposing the inherent parallelism of some resolution techniques (like Dynamic Programming), the computational benefits are remarkable, lowering the execution times by more than an order of magnitude, and allowing to address instances with dimensions not possible before. We approached four Combinatorial Optimization’s notable problems: Packing Problem, Vehicle Routing Problem, Single Source Shortest Path Problem and a Network Design problem. For each of these problems we propose a collection of effective parallel solution algorithms, either for solving the full problem (Guillotine Cuts and SSSPP) or for enhancing a fundamental part of the solution method (VRP and ND). We endorse our claim by presenting computational results for all problems, either on standard benchmarks from the literature or, when possible, on data from real-world applications, where speed-ups of one order of magnitude are usually attained, not uncommonly scaling up to 40 X factors.