928 resultados para SAP BI MOBILE iOS BPC APPLICAZIONE SOFTWARE
Resumo:
Currently, applications for smartphones and tablets, called apps, are becoming increasingly relevant and attract more attention from users and finally the developers. With the Application Stores, services provided by the company that maintains the platform, access to such applications is as or more simplified than to web sites, with the advantage of anenhanced user experience and focused on the mobile device, and enjoy natives resources as camera, audio, storage, integration with other applications, etc. They present a great opportunity for independent developers, who can now develop an application and make it availabl e to all users of that platform, at free or at a cost that is usually low. Even students may create their applications in the intervals of their classes and sell them in stores. Making use of tools and services, free or at low cost, anyone can develop quality applications, that can be marketed and have a large number of users even in adverse situations in which the application is not the focus of developer productivity. However, such to ols do not seem to be well used, or are unknown, or its purpose is not considered important, and this paper tries to show the real importance of these tools in the rapid development of quality software. This project presents several tools, services and practices, which together make it possible to develop an application for various mobile platforms, independently and with a team of a few people, as demonstrated. However, this paper aims not to say that the development of software today it is easy and simple, but there are currently a large set of tools, for various platforms, that assists and enhances the work of the programmer
Resumo:
This work aims to give greater visibility to the issue of software security, due to people talk a lot in security conferences, that much of both IT (Information Technology) staff and, more specifically, IS (Information Security) staff does not know this, and, thanks to the spread of the mobile computing and of the cloud computing, this lack of deeper knowledge on this subject is increasingly becoming worrisome. It aims too, make applications to be developed in a security manner, priorizing the security of the information processed. It attempts to demonstrate the secure coding techniques, the principles of software security, the means to identify software vulnerabilities, the cutting-edge software exploitation techniques and the mechanisms of mitigation. Nowadays, the security guys are in charge of the most of the security tests in applications, audits and pentests, and it is undeniable that the so-called security experts, most often come from computer network field, having few experience in software development and programming. Therefore, the development process does not consider the security issue, thanks to the lack of knowledge on the subject by the developer, and the security tests could be improved whether security experts had a greater know-how on application development. Given this problem, the goal here is to integrate information security with software development, spreading out the process of secure software development. To achieve this, a Linux distribution with proof of concept applicati... (Complete abstract click electronic access below)
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Pós-graduação em Ciência da Computação - IBILCE
Resumo:
Pós-graduação em Ciência da Computação - IBILCE
Resumo:
[ES] El objetivo de este Trabajo es el de parametrizar, implementar las estructuras de datos y programar las aplicaciones necesarias que posibilitan el intercambio de información entre dos entornos software, SAP R/3 y Knapp, líderes en sus campos de actuación. El resultado de aplicar tales cambios permitirá a la organización no sólo centralizar la información en el ERP, sino que mejorará sus procesos de negocio y agilizará la toma de decisiones por parte de los responsables. Se realiza un estudio de la situación actual y, tras un análisis detallado, se propone una solución que permita alcanzar los objetivos propuestos. Una vez diseñada, presentada y aprobada la propuesta, se procede a la parametrización de SAP R/3, a la definición de los segmentos y tipos de IDOC y a la codificación de funciones y programas que permitan tratar la información enviada por Knapp. Finalizadas estas tareas, se elaboran juegos de datos de los procesos comerciales y se ejecutan en un entorno de test, en colaboración con los usuarios claves, para comprobar la bondad de la solución implementada. Se analizan los resultados y se corrigen posibles deficiencias. Finalmente se transporta al sistema productivo todos los cambios realizados y se verifica la correcta ejecución de los procesos de negocio de la organización.
Resumo:
Il lavoro è incentrato sull’applicazione ed integrazione di differenti tecniche di indagine geofisica in campo ambientale e ingegneristico/archeologico. Alcuni esempi sono stati descritti al fine di dimostrare l’utilità delle metodologie geofisiche nella risoluzione di svariate problematiche. Nello specifico l’attenzione è stata rivolta all’utilizzo delle tecniche del Ground Penetrating Radar e del Time Domain Reflectometry in misure condotte su un corpo sabbioso simulante una Zona Insatura. L’esperimento è stato realizzato all’interno di un’area test costruita presso l’azienda agricola dell’Università La Tuscia di Viterbo. Hanno partecipato al progetto le Università di Roma Tre, Roma La Sapienza, La Tuscia, con il supporto tecnico della Sensore&Software. Nello studio è stato condotto un approccio definito idrogeofisico al fine di ottenere informazioni da misure dei parametri fisici relativi alla Zona Insatura simulata nell’area test. Il confronto e l’integrazione delle due differenti tecniche di indagine ha offerto la possibilità di estendere la profondità di indagine all’interno del corpo sabbioso e di verificare l’utilità della tecnica GPR nello studio degli effetti legati alle variazioni del contenuto d’acqua nel suolo, oltre a determinare la posizione della superficie piezometrica per i differenti scenari di saturazione. Uno specifico studio è stato realizzato sul segnale radar al fine di stabilire i fattori di influenza sulla sua propagazione all’interno del suolo. Il comportamento dei parametri dielettrici nelle condizioni di drenaggio e di imbibizione del corpo sabbioso è stato riprodotto attraverso una modellizzazione delle proprietà dielettriche ed idrologiche sulla base della dimensione, forma e distribuzione dei granuli di roccia e pori, nonché sulla base della storia relativa alla distribuzione dei fluidi di saturazione all’interno del mezzo. La modellizzazione è stata operata sulle basi concettuali del Differential Effective Medium Approximation.
Resumo:
The increasing diffusion of wireless-enabled portable devices is pushing toward the design of novel service scenarios, promoting temporary and opportunistic interactions in infrastructure-less environments. Mobile Ad Hoc Networks (MANET) are the general model of these higly dynamic networks that can be specialized, depending on application cases, in more specific and refined models such as Vehicular Ad Hoc Networks and Wireless Sensor Networks. Two interesting deployment cases are of increasing relevance: resource diffusion among users equipped with portable devices, such as laptops, smart phones or PDAs in crowded areas (termed dense MANET) and dissemination/indexing of monitoring information collected in Vehicular Sensor Networks. The extreme dynamicity of these scenarios calls for novel distributed protocols and services facilitating application development. To this aim we have designed middleware solutions supporting these challenging tasks. REDMAN manages, retrieves, and disseminates replicas of software resources in dense MANET; it implements novel lightweight protocols to maintain a desired replication degree despite participants mobility, and efficiently perform resource retrieval. REDMAN exploits the high-density assumption to achieve scalability and limited network overhead. Sensed data gathering and distributed indexing in Vehicular Networks raise similar issues: we propose a specific middleware support, called MobEyes, exploiting node mobility to opportunistically diffuse data summaries among neighbor vehicles. MobEyes creates a low-cost opportunistic distributed index to query the distributed storage and to determine the location of needed information. Extensive validation and testing of REDMAN and MobEyes prove the effectiveness of our original solutions in limiting communication overhead while maintaining the required accuracy of replication degree and indexing completeness, and demonstrates the feasibility of the middleware approach.
Resumo:
Confronto tra due software specifici per l'analisi di rischio nel trasporto stradale di merci pericolose (TRAT GIS 4.1 e QRAM 3.6) mediante applicazione a un caso di studio semplice e al caso reale di Casalecchio di Reno, comune della provincia di Bologna.
Resumo:
Nel campo della tecnologia, l’ultimo decennio è stato caratterizzato da significativi sviluppi nel mondo dei dispositivi mobili. Si è passati dal tradizionale telefono cellulare, ai più recenti palmari e Smartphone che integrano al tradizionale stereotipo di telefono cellulare, funzionalità avanzate su hardware molto sofisticato. Con un moderno dispositivo mobile infatti, è possibile collegarsi ad Internet, leggere mail, guardare video, scaricare applicazioni e installarle per poterne così fruire. L’International Telecommunications Union (ITU-T) ha stimato che alla fine del 2010 il numero di utenti Internet a livello mondiale ha raggiunto i 2 mi- liardi e che gli accessi alla rete cellulare hanno raggiunto circa 5,3 miliardi di sottoscrizioni. Se si considera inoltre che le reti 2G verranno sostituite da quelle 3G (che consente una connessione alla rete a banda larga tramite dispositivi cellulari), è inevitabile che nel prossimo futuro, gli utilizzatori di Internet tramite rete mobile potranno arrivare ad essere anche qualche miliardo. Le applicazioni disponibili in rete sono spesso scritte in linguaggio Java che su dispositivi embedded, dove è cruciale il consumo di energia, mettono in crisi la durata della batteria del dispositivo. Altre applicazioni scritte in linguaggi meno dispendiosi in termini di consumi energetici, hanno un’interfaccia scarna, a volte addirittura ridotta a semplice terminale testuale, che non è indicata per utenti poco esperti. Infine altre applicazioni sono state eseguite solo su simulatori o emulatori, perciò non forniscono riscontri su dispositivi reali. In questa tesi verrà mostrato come su un dispositivo mobile sia possibile utilizzare, tramite un’interfaccia “user-friendly”, una tecnologia già esistente e diffusa come il VoIP in maniera tale che qualunque tipologia di utente possa utilizzarla senza conoscerne i dettagli tecnici. Tale applicazione, dovendo utilizzare una connessione dati, sfrutterà o una connessione a una rete WLAN o una connessione a una rete cellulare (GPRS, UMTS e HSDPA ad esempio) a seconda della dotazione hardware dell’apparecchio mobile e della locazione dello stesso in una rete accessibile dall’utente.
Resumo:
La mia tesi dal titolo ”Applicazione della tecnica PSinSAR™ allo studio di fenomeni franosi lenti: casi di studio in Emilia-Romagna” ha avuto come obiettivo quello di mostrare le potenzialità e i limiti della tecnica PSinSAR nel monitoraggio di fenomeni franosi localizzati in Val Marecchia. Ho svolto, nel capitolo due, un’analisi preliminare dell’area di studio andando a evidenziare prima le caratteristiche climatiche, piogge medie annue e le temperature minime e massime, e a seguire sono passato a descrivere l’inquadramento geologico e geomorfologico. L’area della Val Marecchia è, da questo punto di vista, molto particolare poggiando su quella che è definita dagli autori “coltre della Val Marecchia”; essa è un complesso alloctono sovrascorso ai terreni autoctoni della successione Umbro – Romagnola - Marchigiana. La traslazione verso Est della coltre avvenne per "scatti", in funzione delle principali fasi tettoniche appenniniche, separati da momenti di pausa in cui sedimentarono le formazioni più recenti le quali poi si spostarono in modo solidale con la coltre. La coltre, infatti, è costituita da un insieme di formazioni di età diverse e in particolare ritroviamo, partendo da quella più antica l’unità ligure, l’unità subligure e infine l’unità epiligure. La presenza di formazioni più recenti sopra ad altre più antiche rende unica la morfologia della vallata con enormi blocchi rocciosi poggianti su un substrato in genere argilloso come nell’esempio più famoso della rupe di San Leo. Da queste analisi è emersa un’altra caratteristica peculiare della valle cioè la forte tendenza a essere interessata da dissesti di varie tipologie. Gli indici di franosità mostrano che nella zona alta della vallata circa il 50% del territorio è interessato da dissesti, valore che decresce leggermente nella parte media e bassa della valle. Il motivo di tale instabilità è da imputare in parte alla forte erosione che avviene sulle placche epiliguri e in parte alle caratteristiche scadenti del substrato che è per lo più composto di argille e arenarie. Per quanto riguarda le tipologie di frane in Val Marecchia la situazione è molto eterogenea; in particolari le tre tipologie più frequenti sono il colamento lento, lo scivolamento rotazionale/traslativo e le frane di tipo complesso. Nel terzo capitolo ho descritto la tecnica PSinSAR; essa si basa sull’elaborazione di scene riprese da satellite per giungere alla formazione di una rete di punti, i PS, di cui conosciamo i movimenti nel tempo. I Permanent Scatterer (PS) sono dei bersagli radar individuati sulla superficie terrestre dal sensori satellitari caratterizzati per il fatto di possedere un’elevata stabilità nel tempo alla risposta elettromagnetica. I PS nella maggior parte dei casi corrispondono a manufatti presenti sulla superficie quali edifici, monumenti, strade, antenne e tralicci oppure ad elementi naturali come per esempio rocce esposte o accumuli di detrito. Lo spostamento viene calcolato lungo la linea di vista del satellite, per cui il dato in uscita non mostra lo spostamento effettivo del terreno, ma l'allontanamento o l'avvicinamento del punto rispetto al satellite. La misure sono sempre differenziali, ovvero sono riferite spazialmente a un punto noto a terra chiamato reference point, mentre temporalmente alla data di acquisizione della prima immagine. La tecnica PSinSAR proprio per la sua natura è "cieca" rispetto ai movimenti in direzione Nord-Sud. Le scene utilizzate per la creazione dei dataset di PS derivano quasi interamente dai satelliti ERS e ENVISAT. Tuttora sono disponibili anche le scene dei satelliti TerraSAR-X, RADARSAT e Cosmo Skymed. I sensori utilizzati in questo ambito sono i SAR (Synthetic Aperture Radar) che sono sensori attivi, cioè emettono loro stessi l'energia necessaria per investigare la superficie terrestre al contrario dei sensori ottici. Questo permette di poter acquisire scene anche di notte e in condizioni di cielo nuvoloso. La tecnica PSinSAR presenta molti vantaggi rispetto alle tecniche interferometriche tradizionali essa, infatti, è immune agli errori di decorrelamento temporale e spaziale oltre agli errori atmosferici, che portavano ad avere precisioni non inferiori a qualche cm, mentre ora l’errore di misura sulla velocità media di spostamento si attesta in genere sui 2 mm. La precisione che si ha nella georeferenziazione dei punti è in genere di circa 4-7 m lungo la direzione Est e circa 1-2 m in quella Nord. L’evoluzione di PSinSAR, SqueeSAR, permette un numero maggiore di punti poiché oltre ai Permanent Scatterers PS, tramite un apposito algoritmo, calcola anche i Distribuited Scatterer DS. I dataset di dati PS che ho utilizzato nel mio lavoro di tesi (PSinSAR) derivano, come detto in precedenza, sia da scene riprese dal satellite ERS che da ENVISAT nelle due modalità ascendenti e discendenti; nel primo caso si hanno informazioni sui movimenti avvenuti tra il 1992 e il 2000 mentre per l’ENVISAT tra il 2002 e il 2008. La presenza di dati PS nelle due modalità di ripresa sulla stessa zona permette tramite alcuni calcoli di ricavare la direzione effettiva di spostamento. È importante però sottolineare che, a seconda della modalità di ripresa, alcune aree possono risultare in ombra, per questo nell’analisi dei vari casi di studio non sempre sono stati utilizzabili tutti i dataset. Per l'analisi dei vari casi di studio, presentati nel capitolo 4, ho utilizzato diverso materiale cartografico. In particolare mi sono servito delle Carte Tecniche Regionali (CTR) a scala 1:10000 e 1:5000, in formato digitale, come base cartografica. Sempre in formato digitale ho utilizzato anche le carte geologiche e geomorfologiche dell'area della Val Marecchia (fogli 266, 267, 278) oltre, per finire, agli shapefile presi dal database online del Piano stralcio dell’Assetto Idrogeologico PAI. Il software usato per la realizzazione del lavoro di tesi è stato ArcGIS di proprietà di ESRI. Per ogni caso di studio ho per prima cosa effettuato un'analisi dal punto di vista geologico e geomorfologico, in modo da fare un quadro delle formazioni presenti oltre ad eventuali fenomeni franosi mostrati dalle carte. A seguire ho svolto un confronto fra il dato PS, e quindi i valori di spostamento, e la perimetrazione mostrata nel PAI. Per alcuni casi di studio il dato PS ha mostrato movimenti in aree già perimetrate nel PAI come "in dissesto", mentre in altri il dato satellitare ha permesso di venire a conoscenza di fenomeni non conosciuti (come ad esempio nel caso di Monte Gregorio). Per ogni caso di studio ho inoltre scelto alcuni PS caratteristici (solitamente quelli a coerenza maggiore) e ho ricavato la relativa serie storica. In questo modo è stato possibile verificare lo spostamento durante tutti gli anni in cui sono state prese le scene (dal 1992 al 2000 per dati ERS, dal 2002 al 2008 per dati ENVISAT) potendo quindi mettere in luce accelerazioni o assestamenti dei fenomeni nel tempo, oltre a escludere la presenza di trend di spostamento anomali imputabili nella maggior parte dei casi a errori nel dato. L’obiettivo della tesi è stato da una parte di verificare la bontà del dato PS nell’interpretazione dei movimenti dovuti a dissesti franosi e dall’altra di fare un confronto tra il dato di spostamento ricavato dai PS e i vari inventari o carte di piano. Da questo confronto sono emerse informazioni molti interessanti perché è stato possibile avere conferme di movimento su dissesti già conosciuti (Sant’Agata Feltria, San Leo e altri) ma anche di venire a conoscenza di fenomeni non conosciuti (Monte Gregorio). In conclusione è emerso dal mio lavoro che il monitoraggio tramite tecnica PSinSAR necessita di essere integrato con le tecniche tradizionali poiché presenta alcune limitazioni importanti come l’impossibilità di "vedere" movimenti veloci o lungo la direzione Nord-Sud, oltre ad avere dati in aree vegetate o scarsamente abitate. I vantaggi sono però notevoli potendo monitorare con un’unica ripresa vaste porzioni di territorio oltre ad avere serie storiche consistenti, in grado di evidenziare i movimenti avvenuti nel passato. Tale tecnica quindi, secondo il mio parere, può essere utilizzata come supporto alla stesura di cartografia di fenomeni franosi fornendo informazioni aggiuntive rispetto alle varie tecniche tradizionali come il GPS, sondaggi geotecnici e sondaggi inclinometrici.
Resumo:
Communication and coordination are two key-aspects in open distributed agent system, being both responsible for the system’s behaviour integrity. An infrastructure capable to handling these issues, like TuCSoN, should to be able to exploit modern technologies and tools provided by fast software engineering contexts. Thesis aims to demonstrate TuCSoN infrastructure’s abilities to cope new possibilities, hardware and software, offered by mobile technology. The scenarios are going to configure, are related to the distributed nature of multi-agent systems where an agent should be located and runned just on a mobile device. We deal new mobile technology frontiers concerned with smartphones using Android operating system by Google. Analysis and deployment of a distributed agent-based system so described go first to impact with quality and quantity considerations about available resources. Engineering issue at the base of our research is to use TuCSoN against to reduced memory and computing capability of a smartphone, without the loss of functionality, efficiency and integrity for the infrastructure. Thesis work is organized on two fronts simultaneously: the former is the rationalization process of the available hardware and software resources, the latter, totally orthogonal, is the adaptation and optimization process about TuCSoN architecture for an ad-hoc client side release.
Resumo:
MoNET e' un emulatore per reti wireless mobili, composto da una suite di software distribuiti. MoNET fornisce a ricercatori e sviluppatori un ambiente virtualizzato controllato per lo sviluppo e il test di applicazioni mobili e protocolli di rete per qualsiasi tipologia di hardware e piattaforma software che possa essere virtualizzata. La natura distribuita di questo emulatore permette di creare scenari di dimensione arbitraria. La rete wireless viene emulata in maniera trasparente, quindi la connettività percepita da ogni nodo virtuale, presenta le stesse caratteristiche di quella fisica emulata.
Resumo:
In questo elaborato prenderemo in esame la questione della progettazione di un sistema software atto a gestire alcuni dei problemi legati alla raccolta dei dati in ambito medico. Da tempo infatti si è capita l'importanza di una speciale tecnica di raccolta dei dati clinici, nota in letteratura col nome di "patient-reported outcome", che prevede che siano i pazienti stessi a fornire le informazioni circa l'andamento di una cura, di un test clinico o, più semplicemente, informazioni sul loro stato di salute fisica o mentale. Vedremo in questa trattazione come ciò sia possibile e, soprattutto, come le tecniche e le tecnologie informatiche possano dare un grande contributo ai problemi di questo ambito. Mostreremo non solo come sia conveniente l'uso, in campo clinico, di tecniche automatiche di raccolta dei dati, della loro manipolazione, aggregazione e condivisione, ma anche come sia possibile realizzare un sistema moderno che risolva tutti questi problemi attraverso l'utilizzo di tecnologie esistenti, tecniche di modellazione dei dati strutturati e un approccio che, mediante un processo di generalizzazione, aiuti a semplificare lo sviluppo del software stesso.