992 resultados para INFORMATICA


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Come risposta positiva alle richieste provenienti dal mondo dei giuristi, spesso troppo distante da quello scientifico, si vuole sviluppare un sistema solido dal punto di vista tecnico e chiaro dal punto di vista giurico finalizzato ad migliore ricerca della verità. L’obiettivo ci si prefigge è quello di creare uno strumento versatile e di facile utilizzo da mettere a disposizione dell’A.G. ed eventualmente della P.G. operante finalizzato a consentire il proseguo dell’attività d’indagine in tempi molto rapidi e con un notevole contenimento dei costi di giustizia rispetto ad una normale CTU. La progetto verterà su analisi informatiche forensi di supporti digitali inerenti vari tipi di procedimento per cui si dovrebbe richiedere una CTU o una perizia. La sperimentazione scientifica prevede un sistema di partecipazione diretta della P.G. e della A.G. all’analisi informatica rendendo disponibile, sottoforma di macchina virtuale, il contenuto dei supporti sequestrati in modo che possa essere visionato alla pari del supporto originale. In questo modo il CT diventa una mera guida per la PG e l’AG nell’ambito dell’indagine informatica forense che accompagna il giudice e le parti alla migliore comprensione delle informazioni richieste dal quesito. Le fasi chiave della sperimentazione sono: • la ripetibilità delle operazioni svolte • dettare delle chiare linee guida per la catena di custodia dalla presa in carico dei supporti • i metodi di conservazione e trasmissione dei dati tali da poter garantire integrità e riservatezza degli stessi • tempi e costi ridotti rispetto alle normali CTU/perizie • visualizzazione diretta dei contenuti dei supporti analizzati delle Parti e del Giudice circoscritte alle informazioni utili ai fini di giustizia

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La terminologia informatica e di Internet in spagnolo è caratterizzata da una forte instabilità lessicale e semantica. La grande presenza di anglicismi che si creano con enorme rapidità, impedisce il corretto processo di incorporazione di tali termini nello spagnolo, favorendo così la convivenza di lessico inglese e termini solo parzialmente adattati alla lingua spagnola, dei quali spesso non si conosce l'esatto significato. I traduttori che operano in queste aree linguistiche, così come gli informatici e tutti gli interessati al corretto utilizzo di questa terminologia, per risolvere le problematiche che incontrano, fanno uso oggi soprattutto di risorse online più facilmente aggiornabili ed accessibili rispetto ai classici dizionari cartacei. Tra queste, sono molto importanti gli spazi che permettono la collaborazione diretta tra professionisti del settore, che favoriscono un approccio dinamico e contestuale nella risoluzione di tali dubbi. Il Foro Tic del Centro Virtual Cervantes, dedicato alla discussione su tale linguaggio, raccoglie interessanti dibattiti sull'argomento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scopo di questa tesi è dimostrare che è possibile effettuare in maniera proficua esami di tecnologie web all'università senza utilizzare carta e penna. Nello specifico si parla di ExaM Bin, piattaforma open-source creata come adattamento del tool di web playground JSBIN per fare esami di tecnologie web.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

computer

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Descrizione delle macchine utilizzate in Germania tra le due guerre mondiali in ambito bellico, le loro origini e la loro importanza in termini di sviluppo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa analisi si cercherà di comprendere cosa caratterizza questa l'ondata di progresso tecnologico che sta cambiando il mercato del lavoro. Il principale aspetto negativo di questo progresso si chiama "Technological Unemployment". Benché gli esperti si trovino in disaccordo su quali siano le cause della persistente alta disoccupazione, Brynjolfsson e McAfee puntano il dito contro l'automazione che ha soppiantato i lavori ripetitivi delle aziende. Tuttavia, è anche vero che il progresso ha sempre portato aumenti di produttività, e soprattutto nuovi tipi di occupazioni che hanno compensato la perdita di posti di lavoro, nel medio-lungo termine. Keynes evidenzia che la disoccupazione dovuta alla scoperta di strumenti economizzatori di manodopera procede con ritmo più rapido di quello con cui riusciamo a trovare nuovi impieghi per la manodopera stessa. Da ciò si crea ansia per il futuro, più o meno motivata. Gli stessi esperti sono spaccati a metà tra chi ha fiducia nei possibili risvolti positivi del progresso e chi invece teme possa comportare scenari catastrofici. Le macchine ci rubano lavoro o ci liberano da esso? Con questa ricerca ci si pone l'obiettivo di analizzare le effettive prospettive dei prossimi decenni. Nel capitolo 2 che è il corpo della tesi prenderemo soprattutto in conto il lavoro accademico di Frey ed Osborne dell'Oxford Martin School, intitolato "The future of employment: how susceptible are jobs to computerisation?" (2013). Essi sono stati tra i primi a studiare e quantificare cosa comporteranno le nuove tecnologie in termini di impiego. Il loro obiettivo era individuare le occupazioni a rischio, da qui a vent'anni, nel mercato del lavoro degli Stati Uniti e la relazione che intercorre tra la loro probabilità di essere computerizzati e i loro salari e livello d'istruzione medi, il tutto valutato attraverso l'ausilio di una nuova metodologia che si vedrà nel dettaglio. A conclusioni simili alle loro, per certi aspetti, è successivamente giunto anche Autor; tra l'altro viene spesso citato per altre sue opere dagli stessi Frey e Osborne, che usano le sue categorizzazioni per impostare la struttura del loro calcolo dell'automatizzabilità dei lavori utilizzando i recenti miglioramenti nelle scienze ingegneristiche quali ML (Machine Learning ad esempio Data mining, Machine vision, Computational statistics o più in generale AI) e MR (Mobile robotics) come strumenti di valutazione. Oltre alle sue ricerche, si presenteranno brevemente i risultati di un recente sondaggio tenuto dal Pew Research Center in cui importanti figure dell'informatica e dell'economia esprimono il loro giudizio sul futuro panorama del mondo del lavoro, considerando l'imminente ondata di innovazioni tecnologiche. La tesi si conclude con un'elaborazione personale. In questo modo si prenderà coscienza dei problemi concreti che il progresso tecnologico potrebbe procurare, ma anche dei suoi aspetti positivi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’HTA rappresenta un valido strumento per operare un’analisi dell’impatto clinico,economico e organizzativo di apparecchiature sempre più tecnologicamente sofisticate.Il SIC si inserisce nella valutazione multidisciplinare con le metodologie dell’HTA garantendo appropriatezza e aggiornamento del patrimonio tecnologico per rendere più efficiente l’erogazione delle prestazioni sanitarie.L’HTA dalla valutazione dei bisogni analizza l’applicabilità clinica.Un SIC deve essere in grado di elaborare dati tecnici,gestionali e clinici mediante il software di gestione della manutenzione del parco macchine che nel caso dell’AOSP BO è TMS che gestisce tutte le fasi del ciclo di vita di un’apparecchiatura biomedica.Il ruolo strategico del SIC prevede la programmazione degli investimenti e la valutazione rigorosa nella scelta del rinnovo tecnologico (urgente o programmato) o del potenziamento del parco tecnologico.L’algoritmo analizzato va a individuare diverse categorie di apparecchiature del Sant’Orsola e valuta modello per modello se e quanto risulta efficiente dopo un’attenta analisi il loro trasferimento all’interno del nuovo Polo Cardio Toraco Vascolare inaugurato il 14 dicembre 2015,determinando così un eventuale rinnovo tecnologico,aggiornamento,fuori uso o mantenimento in vita della strumentazione in esame.Le fasi dell’algoritmo finalizzato alla definizione dei recuperi delle apparecchiature medicali nell’ambito dei progetti di riqualificazione tecnologica sono: 1.Normativo (rispondenza a prescrizioni generali relative alla sicurezza e verifiche particolari.Si definisce anche un’analisi dei rischi). 2.Funzionale (si analizzano su TMS l’età dell’apparecchiatura,i tempi di disservizio,il numero e la frequenza delle azioni di manutenzione, le parti consumabili). 3.Economico (costi degli interventi e mantenimento dell'apparecchiatura, spese relative ai pezzi di ricambio o materiale deperibile,contratto di assistenza). 4.Prestazionale (valutazione dello stato del sistema in toto).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Open Source Communities and content-oriented projects (Creative Commons etc.) have reached a new level of economic and cultural significance in some areas of the Internet ecosystem. These communities have developed their own set of legal rules covering licensing issues, intellectual property management, project governance rules etc. Typical Open Source licenses and project rules are written without any reference to national law. This paper considers the question whether these license contracts and other legal rules are to be qualified as a lex mercatoria (or lex informatica) of these communities.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The paper has a twofold purpose. First it highlights the importance of accounting information in the economic development of developing countries, with a particular focus on the nation of Libya. Secondly, using the case of Libya's General Company for Pipelines (GCP), it demonstrates that the use of accounting information to achieve economic development goals is determined to a large extent by the political/ideological setting in which it is generated. The study is based on a literature review and archival research, reinforced by a qualitative case study comprised of interviews, attendance at meetings and a study of internal documents. A study of The General Company for Pipelines (GCP) revealed that frequent politically driven changes in the structure and number of popular congresses and committees severely limited the use of accounting information, relegating it to a formal role. In consequence, accounting information had litle effect on stimulating economic development in Libya. This study focuses on one case study which does limit generalisability. However, it also suggests fruitful research areas considering the historic factors which have determined the accounting role in developing and planned economies. By providing insights about social factors which have determined the use of accounting in a planned economy, this study has implications for similar economies as they move towards a more globalised mode of operations which enhance the role of accounting in meeting economic development needs. If devleoping countries are to harness the potential of accounting aid in the achievement of their development plans, the social and political setting in which accounting has been conducted needs to be understood.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nowadays, Workflow Management Systems (WfMSs) and, more generally, Process Management Systems (PMPs) are process-aware Information Systems (PAISs), are widely used to support many human organizational activities, ranging from well-understood, relatively stable and structures processes (supply chain management, postal delivery tracking, etc.) to processes that are more complicated, less structured and may exhibit a high degree of variation (health-care, emergency management, etc.). Every aspect of a business process involves a certain amount of knowledge which may be complex depending on the domain of interest. The adequate representation of this knowledge is determined by the modeling language used. Some processes behave in a way that is well understood, predictable and repeatable: the tasks are clearly delineated and the control flow is straightforward. Recent discussions, however, illustrate the increasing demand for solutions for knowledge-intensive processes, where these characteristics are less applicable. The actors involved in the conduct of a knowledge-intensive process have to deal with a high degree of uncertainty. Tasks may be hard to perform and the order in which they need to be performed may be highly variable. Modeling knowledge-intensive processes can be complex as it may be hard to capture at design-time what knowledge is available at run-time. In realistic environments, for example, actors lack important knowledge at execution time or this knowledge can become obsolete as the process progresses. Even if each actor (at some point) has perfect knowledge of the world, it may not be certain of its beliefs at later points in time, since tasks by other actors may change the world without those changes being perceived. Typically, a knowledge-intensive process cannot be adequately modeled by classical, state of the art process/workflow modeling approaches. In some respect there is a lack of maturity when it comes to capturing the semantic aspects involved, both in terms of reasoning about them. The main focus of the 1st International Workshop on Knowledge-intensive Business processes (KiBP 2012) was investigating how techniques from different fields, such as Artificial Intelligence (AI), Knowledge Representation (KR), Business Process Management (BPM), Service Oriented Computing (SOC), etc., can be combined with the aim of improving the modeling and the enactment phases of a knowledge-intensive process. The 1st International Workshop on Knowledge-intensive Business process (KiBP 2012) was held as part of the program of the 2012 Knowledge Representation & Reasoning International Conference (KR 2012) in Rome, Italy, in June 2012. The workshop was hosted by the Dipartimento di Ingegneria Informatica, Automatica e Gestionale Antonio Ruberti of Sapienza Universita di Roma, with financial support of the University, through grant 2010-C26A107CN9 TESTMED, and the EU Commission through the projects FP7-25888 Greener Buildings and FP7-257899 Smart Vortex. This volume contains the 5 papers accepted and presented at the workshop. Each paper was reviewed by three members of the internationally renowned Program Committee. In addition, a further paper was invted for inclusion in the workshop proceedings and for presentation at the workshop. There were two keynote talks, one by Marlon Dumas (Institute of Computer Science, University of Tartu, Estonia) on "Integrated Data and Process Management: Finally?" and the other by Yves Lesperance (Department of Computer Science and Engineering, York University, Canada) on "A Logic-Based Approach to Business Processes Customization" completed the scientific program. We would like to thank all the Program Committee members for the valuable work in selecting the papers, Andrea Marrella for his valuable work as publication and publicity chair of the workshop, and Carola Aiello and the consulting agency Consulta Umbria for the organization of this successful event.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Behavioral models capture operational principles of real-world or designed systems. Formally, each behavioral model defines the state space of a system, i.e., its states and the principles of state transitions. Such a model is the basis for analysis of the system’s properties. In practice, state spaces of systems are immense, which results in huge computational complexity for their analysis. Behavioral models are typically described as executable graphs, whose execution semantics encodes a state space. The structure theory of behavioral models studies the relations between the structure of a model and the properties of its state space. In this article, we use the connectivity property of graphs to achieve an efficient and extensive discovery of the compositional structure of behavioral models; behavioral models get stepwise decomposed into components with clear structural characteristics and inter-component relations. At each decomposition step, the discovered compositional structure of a model is used for reasoning on properties of the whole state space of the system. The approach is exemplified by means of a concrete behavioral model and verification criterion. That is, we analyze workflow nets, a well-established tool for modeling behavior of distributed systems, with respect to the soundness property, a basic correctness property of workflow nets. Stepwise verification allows the detection of violations of the soundness property by inspecting small portions of a model, thereby considerably reducing the amount of work to be done to perform soundness checks. Besides formal results, we also report on findings from applying our approach to an industry model collection.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We study lazy structure sharing as a tool for optimizing equivalence testing on complex data types, We investigate a number of strategies for implementing lazy structure sharing and provide upper and lower bounds on their performance (how quickly they effect ideal configurations of our data structure). In most cases when the strategies are applied to a restricted case of the problem, the bounds provide nontrivial improvements over the naive linear-time equivalence-testing strategy that employs no optimization. Only one strategy, however, which employs path compression, seems promising for the most general case of the problem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumen: El Informe de Economía e Instituciones cuenta con tres columnas que abordan cuestiones teóricas y de política económica relacionadas con la temática de la economía y las instituciones. En la primera columna, Los sistemas nacionales de innovación, el autor realiza una reflexión sobre la transmisión de experiencias e investigaciones técnicas realizadas para el desarrollo, acumulación y creación de conocimientos. Fundamenta el éxito innovativo en la existencia previa de interacciones creadoras de conocimiento y destaca la complejidad que para concretar valiosas innovaciones encuentran las empresas al actuar de forma aislada. Finalmente, se concluye al respecto, que los avances en materia de innovaciones tecnológicas se apoyan fundamentalmente en las interrelaciones virtuosas que pudieran existir en las investigaciones de empresas, universidades y organismos gubernamentales trabajando de manera conjunta. En la segunda columna, La calidad institucional: una asignatura pendiente, el autor expone los objetivos de fundamentales de una estructura institucional de carácter dialógico: reemplazar/encauzar el conflicto y reducir la incertidumbre. Ambos objetivos, destaca el autor, no constituyen un estado permanente sino que entrañan una cierta proyectividad. Estos requisitos se ven vulnerados cuando se cae en una institucionalidad estática o cuando esta se basa en una voluntad unilateral. En ese contexto analiza una serie de instituciones y leyes recientes, a partir de la reforma constitucional de 1994, argumentando que su desarrollo, cargado de modificaciones incesantes, permite seguir considerando la calidad institucional como una “asignatura pendiente”. En la tercera columna, Una conjetura germinal: la revolución informática explica parte de la crisis financiera internacional, el autor sostiene que la fluidez en la circulación de la información, propiciada por el desarrollo de las nuevas tecnologías de la comunicación, es una de las causas de la última crisis internacional. Para ello, traza un paralelo entre el sistema financiero internacional y un circuito eléctrico. En este sentido, argumenta que con menores costos de transacción (dada la mejora tecnológica en comunicaciones), los intercambios se tornaron más fluidos, obteniendo resultados más eficientes. De la misma manera, sucede con un circuito eléctrico donde las resistencias producen pérdidas y empeoran la eficiencia energética, pero la contraparte es que el mismo se vuelve necesariamente más inestable. Inestabilidad que se puede constatar, en términos económicos, por la existencia de burbujas especulativas. En este contexto muestra la relevancia y los efectos que el entorno institucional tiene sobre el desempeño económico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto de Fin de Carrera se ha creado una nueva versión de la herramienta WebDiagram, cuya función es facilitar el desarrollo de aplicaciones interactivas mediante la metodología InterMod. La nueva versión de la herramienta se basa en la versión anterior y se diferencia en que contiene un prototipo del Modelo de Diálogo completamente funcional. Además, WebDiagram 3.0 incorpora la concurrencia y mejora algunos aspectos del diagrama. En WebDiagram2.0 se detectaron diversos fallos en la ejecución del programa de prototipado, difíciles de solucionar, que venían arrastrándose a lo largo de las versiones efectuadas de esta herramienta. Con el objetivo de conseguir eliminar todos estos bugs se decidió partir de cero e incorporar el desarrollo guiado por pruebas, también conocido como Test-driven development. Este proceso de desarrollo facilita la corrección de errores, primero escribiendo las pruebas que fallan, y después implementando el código que hace que pase la prueba satisfactoriamente. Las pruebas han sido organizadas en base a Objetivos de Usuario. A lo largo de las iteraciones del proceso se han validado a nivel de requerimientos, presentación y funcionalidad, tal y como aconseja la metodología InterMod. Finalmente, cabe destacar que se ha intentado llevar a cabo el proyecto haciendo un seguimiento activo junto con la directora y otro miembro evaluador para, principalmente, fomentar el trabajo en equipo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This document is in Spanish. La Direccion General de Informatica y Estadistica reune en este volumen las principales elaboraciones estadisticas en materia de pesca, entendiendo por ésta una actividad in tegrada desde la fase primaria de e}~lotaci6n, hasta su destino final. Los datos corresponden al mo de 1977. Catch statistics for Mexican waters 1977. (PDF has 197 pages.)