968 resultados para anonimato rete privacy deep web onion routing cookie


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Abstract 1: Social Networks such as Twitter are often used for disseminating and collecting information during natural disasters. The potential for its use in Disaster Management has been acknowledged. However, more nuanced understanding of the communications that take place on social networks are required to more effectively integrate this information into the processes within disaster management. The type and value of information shared should be assessed, determining the benefits and issues, with credibility and reliability as known concerns. Mapping the tweets in relation to the modelled stages of a disaster can be a useful evaluation for determining the benefits/drawbacks of using data from social networks, such as Twitter, in disaster management.A thematic analysis of tweets’ content, language and tone during the UK Storms and Floods 2013/14 was conducted. Manual scripting was used to determine the official sequence of events, and classify the stages of the disaster into the phases of the Disaster Management Lifecycle, to produce a timeline. Twenty- five topics discussed on Twitter emerged, and three key types of tweets, based on the language and tone, were identified. The timeline represents the events of the disaster, according to the Met Office reports, classed into B. Faulkner’s Disaster Management Lifecycle framework. Context is provided when observing the analysed tweets against the timeline. This illustrates a potential basis and benefit for mapping tweets into the Disaster Management Lifecycle phases. Comparing the number of tweets submitted in each month with the timeline, suggests users tweet more as an event heightens and persists. Furthermore, users generally express greater emotion and urgency in their tweets.This paper concludes that the thematic analysis of content on social networks, such as Twitter, can be useful in gaining additional perspectives for disaster management. It demonstrates that mapping tweets into the phases of a Disaster Management Lifecycle model can have benefits in the recovery phase, not just in the response phase, to potentially improve future policies and activities. Abstract2: The current execution of privacy policies, as a mode of communicating information to users, is unsatisfactory. Social networking sites (SNS) exemplify this issue, attracting growing concerns regarding their use of personal data and its effect on user privacy. This demonstrates the need for more informative policies. However, SNS lack the incentives required to improve policies, which is exacerbated by the difficulties of creating a policy that is both concise and compliant. Standardization addresses many of these issues, providing benefits for users and SNS, although it is only possible if policies share attributes which can be standardized. This investigation used thematic analysis and cross- document structure theory, to assess the similarity of attributes between the privacy policies (as available in August 2014), of the six most frequently visited SNS globally. Using the Jaccard similarity coefficient, two types of attribute were measured; the clauses used by SNS and the coverage of forty recommendations made by the UK Information Commissioner’s Office. Analysis showed that whilst similarity in the clauses used was low, similarity in the recommendations covered was high, indicating that SNS use different clauses, but to convey similar information. The analysis also showed that low similarity in the clauses was largely due to differences in semantics, elaboration and functionality between SNS. Therefore, this paper proposes that the policies of SNS already share attributes, indicating the feasibility of standardization and five recommendations are made to begin facilitating this, based on the findings of the investigation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este trabajo se realiza una descripción y análisis del esquema de funcionamiento detrás del emergente mercado de las compras colectivas y los cupones online desde una perspectiva tanto teórica como empírica. Inicialmente, se desarrolla un marco teórico teniendo en cuenta elementos de: teoría económica, e-marketing y comercio electrónico en los que se basa éste mercado. Posteriormente, se muestra el proyecto de implementación de una plataforma virtual y un sistema de incentivos basado en el esquema de cupones online desarrollado por el autor para la franquicia de tarjetas de crédito Diners Club International del Banco Davivienda S.A. en Colombia

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We live in a world full of social media and portable technology that allows for the effortless access to, and sharing of, information. While this constant connection can be viewed as a benefit by some, there have been recent, sometimes embarrassing, instances throughout the world that show just how quickly any expectation of privacy can be destroyed. From pictures of poorly dressed shoppers at a grocery store to customers recording interactions with their servers at restaurants, the internet is full of media (all with the potential to go viral) created and posted without consent of all parties captured. This risk to privacy is not just limited to retail and restaurants, as being in any situation amongst people puts you at risk, including being in an academic classroom. Anyone providing in-class instruction, be they professor or librarian, can be at risk for this type of violation of privacy. In addition, the students in the class are also at risk for being unwittingly captured by their classmates. To combat this, colleges and universities are providing recommendations to faculty regarding this issue, such as including suggested syllabus statements about classroom recording by students. In some instances, colleges and universities have instituted formal policies with strict penalties for violators. An overview of current privacy law as it relates to an academic setting is discussed as well as recent, newsworthy instances of student recording in the classroom and the resulting controversies. Additionally, there is a discussion highlighting various recommendations and formal policies that have been issued and adopted by colleges and universities around the country. Finally, advice is offered about what librarians can do to educate students, faculty, and staff about the privacy rights of others and the potential harm that could come from posting to social media and the open web images and video of others without their consent.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Each year search engines like Google, Bing and Yahoo, complete trillions of search queries online. Students are especially dependent on these search tools because of their popularity, convenience and accessibility. However, what students are unaware of, by choice or naiveté is the amount of personal information that is collected during each search session, how that data is used and who is interested in their online behavior profile. Privacy policies are frequently updated in favor of the search companies but are lengthy and often are perused briefly or ignored entirely with little thought about how personal web habits are being exploited for analytics and marketing. As an Information Literacy instructor, and a member of the Electronic Frontier Foundation, I believe in the importance of educating college students and web users in general that they have a right to privacy online. Class discussions on the topic of web privacy have yielded an interesting perspective on internet search usage. Students are unaware of how their online behavior is recorded and have consistently expressed their hesitancy to use tools that disguise or delete their IP address because of the stigma that it may imply they have something to hide or are engaging in illegal activity. Additionally, students fear they will have to surrender the convenience of uber connectivity in their applications to maintain their privacy. The purpose of this lightning presentation is to provide educators with a lesson plan highlighting and simplifying the privacy terms for the three major search engines, Google, Bing and Yahoo. This presentation focuses on what data these search engines collect about users, how that data is used and alternative search solutions, like DuckDuckGo, for increased privacy. Students will directly benefit from this lesson because informed internet users can protect their data, feel safer online and become more effective web searchers.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

According to a new report (http://tinyurl.com/2g6ghps), if you are on the Web at all you’re not safe from hackers, phishers, and spammers (oh my!). The Norton Cybercrime Report: The Human Impact (http://cybercrime.newslinevine.com/) of 7,000 Web users tells us that 65% of all users globally, and 73% of U. S. users, have been hacked in some sort of cybercrime. Globally, the U. S. ranks very high but in this case we’re not first in line. China wins Number One with 83% of its users web-abused in some manner. These are figures to give one pause.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The emergence of the digital order renewed the Victorian civilizing ideal and strengthened a world order of techno-economic dependence. The new grand narrative is the urgency of digital transformation of societies; a dream pursued without reflection by the populations of the periphery that ended into in a collision between McLuhan's two informational orders: cold and hot societies. Latin America as part of the periphery did not participate in the development of the informatic technologies and its historical legacy made the appropriation of these technologies more difficult. This paper examines the historical circumstances of this process: the development of a discourse around the digital networks, the consequences of this social construction in the region, the fragile efforts of Brazil to create technology, and the entrance of IT networks in the region. The results showed that the status of this kind of research in the region is weak so we alert about its consequences. We concluded that to create an informational order that may serve as a space of self-affirmation, freedom and heterogeneity, it is necessary to have a deep knowledge of the social and historical context that created its basic technologies, but Latin America is indifferent in such regard. Information Science has a central role in the region within this process but it has not developed it yet.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Sunken parcels of macroalgae and wood provide important oases of organic enrichment at the deep-sea floor, yet sediment community structure and succession around these habitat islands are poorly evaluated. We experimentally implanted 100-kg kelp falls and 200 kg wood falls at 1670 m depth in the Santa Cruz Basin to investigate (1) macrofaunal succession and (2) species overlap with nearby whale-fall and cold-seep communities over time scales of 0.25-5.5 yr. The abundance of infaunal macrobenthos was highly elevated after 0.25 and 0.5 yr near kelp parcels with decreased macrofaunal diversity and evenness within 0.5 m of the falls. Apparently opportunistic species (e.g., two new species of cumaceans) and sulfide tolerant microbial grazers (dorvilleid polychaetes) abounded after 0.25-0.5 yr. At wood falls, opportunistic cumaceans become abundant after 0.5 yr, but sulfide tolerant species only became abundant after 1.8-5.5 yr, in accordance with the much slower buildup of porewater sulfides at wood parcels compared with kelp falls. Species diversity decreased significantly over time in sediments adjacent to the wood parcels, most likely due to stress resulting from intense organic loading of nearby sediments (up to 20-30% organic carbon). Dorvilleid and ampharetid polychaetes were among the top-ranked fauna at wood parcels after 3.0-5.5 yr. Sediments around kelp and wood parcels provided low-intensity reducing conditions that sustain a limited chemoautrotrophically-based fauna. As a result, macrobenthic species overlap among kelp, wood, and other chemosynthetic habitats in the deep NE Pacific are primarily restricted to apparently sulfide tolerant species such as dorvilleid polychaetes, opportunistic cumaceans, and juvenile stages of chemosymbiont containing vesicomyid bivalves. We conclude that organically enriched sediments around wood falls may provide important habitat islands for the persistence and evolution of species dependent on organic- and sulfide-rich conditions at the deep-sea floor and contribute to beta and gamma diversity in deep-sea ecosystems. (C) 2010 Elsevier Ltd. All rights reserved.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Analisi in chiave economica e sociale dell'evoluzione di Internet, delle tecnologie legate al Web 2.0, dei fenomeni della pirateria, del software libero ed open source, del copyleft, dei contenuti aperti e della produzione tra pari. Introduzione dei concetti di economia del gratis ("freeconomics") e di coda lunga. Consigli manageriali pratici per i nuovi mercati digitali e per la competizione nella rete Internet.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As distributed collaborative applications and architectures are adopting policy based management for tasks such as access control, network security and data privacy, the management and consolidation of a large number of policies is becoming a crucial component of such policy based systems. In large-scale distributed collaborative applications like web services, there is the need of analyzing policy interactions and integrating policies. In this thesis, we propose and implement EXAM-S, a comprehensive environment for policy analysis and management, which can be used to perform a variety of functions such as policy property analyses, policy similarity analysis, policy integration etc. As part of this environment, we have proposed and implemented new techniques for the analysis of policies that rely on a deep study of state of the art techniques. Moreover, we propose an approach for solving heterogeneity problems that usually arise when considering the analysis of policies belonging to different domains. Our work focuses on analysis of access control policies written in the dialect of XACML (Extensible Access Control Markup Language). We consider XACML policies because XACML is a rich language which can represent many policies of interest to real world applications and is gaining widespread adoption in the industry.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi si propone di presentare e classificare per caratteristiche simili i protocolli di routing che ad oggi sono utilizzati nelle Cognitive Radio Ad Hoc Networks. Pertanto dapprima nel Capitolo 1 si introdurranno le radio cognitive con i concetti che sono alla base di questa tecnologia e le principali motivazioni che hanno portato alla loro nascita e poi al loro sviluppo. Nel Capitolo 2 si parlerà delle cognitive networks o meglio delle cognitive radio networks, e delle loro peculiarità. Nel terzo e nel quarto capitolo si affronteranno le CRAHNs e in particolare quali sono le sfide a cui devono far fronte i protocolli di routing che operano su di essa, partendo dall'esaminare quali sono le differenze che distinguono questa tipologia di rete da una classica rete wireless ad hoc con nodi in grado di muoversi nello spazio (una MANET). Infine nell'ultimo capitolo si cercherà di classificare i protocolli in base ad alcune loro caratteristiche, vedendo poi più nel dettaglio alcuni tra i protocolli più usati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa tesi viene affrontato il tema del tracciamento video, analizzando le principali tecniche, metodologie e strumenti per la video analytics. L'intero lavoro, è stato svolto interamente presso l'azienda BitBang, dal reperimento di informazioni e materiale utile, fino alla stesura dell'elaborato. Nella stessa azienda ho avuto modo di svolgere il tirocinio, durante il quale ho approfondito gli aspetti pratici della web e video analytics, osservando il lavoro sul campo degli specialisti del settore e acquisendo familiarità con gli strumenti di analisi dati tramite l'utilizzo delle principali piattaforme di web analytics. Per comprendere a pieno questo argomento, è stato necessario innanzitutto conoscere la web analytics di base. Saranno illustrate quindi, le metodologie classiche della web analytics, ovvero come analizzare il comportamento dei visitatori nelle pagine web con le metriche più adatte in base alle diverse tipologie di business, fino ad arrivare alla nuova tecnica di tracciamento eventi. Questa nasce subito dopo la diffusione nelle pagine dei contenuti multimediali, i quali hanno portato a un cambiamento nelle modalità di navigazione degli utenti e, di conseguenza, all'esigenza di tracciare le nuove azioni generate su essi, per avere un quadro completo dell'esperienza dei visitatori sul sito. Non sono più sufficienti i dati ottenuti con i tradizionali metodi della web analytics, ma è necessario integrarla con tecniche nuove, indispensabili se si vuole ottenere una panoramica a 360 gradi di tutto ciò che succede sul sito. Da qui viene introdotto il tracciamento video, chiamato video analytics. Verranno illustrate le principali metriche per l'analisi, e come sfruttarle al meglio in base alla tipologia di sito web e allo scopo di business per cui il video viene utilizzato. Per capire in quali modi sfruttare il video come strumento di marketing e analizzare il comportamento dei visitatori su di esso, è necessario fare prima un passo indietro, facendo una panoramica sui principali aspetti legati ad esso: dalla sua produzione, all'inserimento sulle pagine web, i player per farlo, e la diffusione attraverso i siti di social netwok e su tutti i nuovi dispositivi e le piattaforme connessi nella rete. A questo proposito viene affrontata la panoramica generale di approfondimento sugli aspetti più tecnici, dove vengono mostrate le differenze tra i formati di file e i formati video, le tecniche di trasmissione sul web, come ottimizzare l'inserimento dei contenuti sulle pagine, la descrizione dei più famosi player per l'upload, infine un breve sguardo sulla situazione attuale riguardo alla guerra tra formati video open source e proprietari sul web. La sezione finale è relativa alla parte più pratica e sperimentale del lavoro. Nel capitolo 7 verranno descritte le principali funzionalità di due piattaforme di web analytics tra le più utilizzate, una gratuita, Google Analytics e una a pagamento, Omniture SyteCatalyst, con particolare attenzione alle metriche per il tracciamento video, e le differenze tra i due prodotti. Inoltre, mi è sembrato interessante illustrare le caratteristiche di alcune piattaforme specifiche per la video analytics, analizzando le più interessanti funzionalità offerte, anche se non ho avuto modo di testare il loro funzionamento nella pratica. Nell'ultimo capitolo vengono illustrate alcune applicazioni pratiche della video analytics, che ho avuto modo di osservare durante il periodo di tirocinio e tesi in azienda. Vengono descritte in particolare le problematiche riscontrate con i prodotti utilizzati per il tracciamento, le soluzioni proposte e le questioni che ancora restano irrisolte in questo campo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The purpose of this work is to provide a methodological tool for literature searching in geography, tourism and environmental conservation. Knowledge of bibliographic and documentary resources and learning research strategies form an essential part of training for students and researchers. Literature searching is also a critical element of communication and scientific output. This work aims to analyze the characteristics, and critical issues in geography literature searching in order to provide a critical mass of useful information to correctly prepare a search. Having addressed the issue of information literacy for the study of geography and related disciplines, including a comparison of various approaches, this work describes the physical locations of the research: libraries and archives. It outlines the issues related to the cataloging and digitization of cartographic materials. The particular characteristics of scientific communication and its primary means of dissemination, the scientific journal, are then outlined. This is followed by a description of information sources and types of documents used within the realm of geography. Tools, strategies and resources are then illustrated for conducting an effective literature search both on the web and in the library.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi anni si sente sempre più spesso parlare di cloud computing. L'idea di fondo di questo concetto è quella di pagare per il solo effettivo utilizzo di un servizio, disponibile sulla rete, avendo a disposizione la possibilità di poter variare le proprie risorse utilizzabili a seconda delle necessità, che potrebbero essere, per esempio, applicazioni standard oppure spazi di storage per i dati. Quando cominciò a diffondersi l'utilizzo del Web, la rete Internet veniva raffigurata come una nuvola (cloud) in modo tale che si rendesse l'idea di un'entità esterna rispetto alla nostra casa o al nostro posto di lavoro, un qualcosa cioè al di fuori dei luoghi abituali in cui vengono utilizzati i PC. Tale rappresentazione diventa ora utile per poter spiegare il concetto di cloud computing. Infatti, grazie a questa nuova tecnologia, dati e programmi normalmente presenti nei nostri computer potranno ora trovarsi sul cloud. Molti reparti IT sono costretti a dedicare una parte significativa del loro tempo a progetti di implementazione, manutenzione e upgrade che spesso non danno un vero valore per l'azienda. I team di sviluppo hanno cominciato quindi a rivolgersi a questa nuova tecnologia emergente per poter minimizzare il tempo dedicato ad attività a basso valore aggiunto per potersi concentrare su quelle attività strategiche che possono fare la differenza per un'azienda. Infatti un'infrastruttura come quella cloud computing promette risparmi nei costi amministrativi che raggiungono addirittura il 50% rispetto ad un software standard di tipo client/server. Questa nuova tecnologia sta dando inizio ad un cambiamento epocale nel mondo dello sviluppo delle applicazioni. Il passaggio che si sta effettuando verso le nuove soluzioni cloud computing consente infatti di creare applicazioni solide in tempi decisamente più brevi e con costi assai inferiori, evitando inoltre tutte le seccature associate a server, soluzioni software singole, aggiornamenti, senza contare il personale necessario a gestire tutto questo. L'obiettivo di questa tesi è quello di mostrare una panoramica della progettazione e dello sviluppo di applicazioni Web nel cloud computing, analizzandone pregi e difetti in relazione alle soluzioni software attuali. Nel primo capitolo viene mostrato un quadro generale in riferimento al cloud, mettendo in luce le sue caratteristiche fondamentali, esaminando la sua architettura e valutando vantaggi e svantaggi di tale piattaforma. Nel secondo capitolo viene presentata la nuova metodologia di progettazione nel cloud, operando prima di tutto un confronto con lo sviluppo dei software standard e analizzando poi l'impatto che il cloud computing opera sulla progettazione. Nel terzo capitolo si entra nel merito della progettazione e sviluppo di applicazioni SaaS, specificandone le caratteristiche comuni ed elencando le piattaforme di rilievo allo stato dell'arte. Si entrerà inoltre nel merito della piattaforma Windows Azure. Nel quarto capitolo viene analizzato nel particolare lo sviluppo di applicazioni SaaS Multi-Tenant, specificando livelli e caratteristiche, fino a spiegare le architetture metadata-driven. Nel quinto capitolo viene operato un confronto tra due possibili approcci di sviluppo di un software cloud, analizzando nello specifico le loro differenze a livello di requisiti non funzionali. Nel sesto capitolo, infine, viene effettuata una panoramica dei costi di progettazione di un'applicazione cloud.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi anni i progressi tecnologici in termini di miniaturizzazione elettronica, hanno permesso la realizzazione di componenti hardware ed in particolare di microprocessori e sensori dalle dimensioni ridottissime. Questo ha favorito la recente diffusione di reti di sensori wireless (Wireless Sensor Network) basate su sistemi embedded più o meno complessi ed applicate a settori di mercato che vanno dalla domotica alle applicazioni industriali, fino al monitoraggio dei pazienti. Lo scopo di questa tesi, svolta in collaborazione con la società Rinnova di Forlì, consiste nell’implementazione di un dimostratore che mostri la reale capacità di realizzare una rete WS che si appoggia su di un sistema embedded commerciale ed ampiamente diffuso come la piattaforma Arduino ed in grado di rilevare il livello di ammoniaca presente negli allevamenti di pollame. Tale gas infatti, se presente in quantità notevole, provoca una dannosa alterazione comportamentale dei polli e risulta quindi un parametro molto importante da monitorare. Oltre al sensore di ammoniaca, misurazione principale richiesta dal progetto, ne sono stati aggiunti uno per la temperatura ed uno per l’umidità. L’architettura finale implementata è quella tipica di una rete a stella, in cui il master centrale colleziona a polling i dati provenienti dai sensori collegati agli slave e li invia ad un server web, rendendoli accessibili mediante la rete Internet. L’utente finale può così accedere alla pagina web da un qualunque PC dotato di connessione Internet, monitorare i dati dei sensori e soprattutto verificare quando il livello di ammoniaca supera la soglia di attenzione, potendo così intervenire immediatamente nell’allevamento per effettuare le dovute operazioni di pulizia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nell’ultimo decenno si è assisitito ad una frenetica evoluzione delle tecnologie di connessione e trasferimento dati, dagli impianti di fibra ottica sempre più diffusi e performanti, alle varie tecnologie mobile UMTS e LTE. Tutto ciò ha permesso a sempre più persone di poter spendere una maggiore fetta del proprio tempo sulla rete sia per svago che per lavoro. Questo ha portato col tempo l’utente interattivo alla ricerca di servizi remoti che prima usufruiva in locale, sia per motivi di portabilità e di interconnessione, sia per una semplice questione di sincronizzazione fra i vari dispositivi posseduti. Il presente progetto di tesi si pone come obiettivo di indagare con occhio ingegneristico all’evoluzione della struttura del web fino ad identificare e analizzare l’attuale necessità di poter avere in rete tutti quei servizi anche completi e strutturalmente complessi che prima si aveva sul proprio desktop; tutto ciò attraverso l’esempio di un nuovo linguaggio di sviluppo per applicazioni web strutturate proposto da Google: DART. In questa analisi non si potrà prescindere dallo studio attento della tecnologia che sin dagli inizi della rete ha fatto da struttura al web ovvero l’Html e il suo ultimo standard Hmtl5. Nella prima parte verrà mostrata, attraverso un breve percorso, la nascita e lo sviluppo del web, sino ai giorni nostri. Si effettuerà quindi una panoramica, rivisitando tutti più importanti passi che hanno portato la rete internet ad essere ciò che oggi utilizziamo, ponendo una particolare attenzione alle attuali esigenze di progettazione della struttura dei servizi web. Nel secondo capitolo viene introdotta la tecnologia a base del web, l’Html; attraverso una breve analisi dell’evoluzione di quest’ultima si arriverà sino all’attuale HTML5 e alle funzionalità offerte nell’ottica della programmazione web strutturata. Nel terzo capitolo si analizzerà in maniera più approfondita la necessità di un web strutturato e le potenzialità del progetto Dart attraverso alcuni esempi esplicativi. Infine si trarranno alcune conclusioni sull’attuale situazione del web, sulla necessità di un web strutturato e sulla possibilità di riuscita del progetto Dart.