968 resultados para anonimato rete privacy deep web onion routing cookie
Resumo:
[ES] Este trabajo se encuadra dentro de los estudios centrados en el análisis del comportamiento de compra del consumidor en Internet. Nos centramos en la adaptación del modelo de la jerarquía de efectos basado en su variante de la jerarquía estándar de aprendizaje para proponer teóricamente un modelo conceptual que explica cómo las creencias —i.e. diseño, velocidad de interacción, beneficios sociales y privacidad— y actitudes del consumidor hacia Internet, como medio de comunicación, pueden considerarse como determinantes plausibles de la confianza en la compra online. Asimismo, en nuestro modelo se plantea que las opiniones del consumidor respecto a la compra a distancia también deben ejercer una influencia sobre sus valoraciones de Internet, como medio de comunicación y, especialmente, de compra.
Resumo:
[ES] Los trabajos de investigación sobre comercio electrónico en Internet ocupan gran parte de la investigación de marketing, pero son pocos aún los que se han ocupado de estudiar el sistema de subasta. Ante las peculiares características de una compra online, transmitir confianza al consumidor en este contexto es uno de los retos más importantes y difíciles en comparación con la compra offline. No obstante, es de esperar que las señales generadoras de confianza sean diferentes en la compra online por subasta que en la compra online en otros sitios web.
Resumo:
Aponta aspectos que devem ser considerados na identificação de metadados de assunto granulares para a legislação federal brasileira. O objeto de estudo foi o Sistema de Legislação Informatizada (Legin Web) disponível no Portal da Câmara dos Deputados. Os objetivos específicos foram: identificar tipos de assuntos amplamente utilizados na indexação da legislação federal brasileira e aspectos do contexto de busca de informação que interferissem na identificação dos metadados de assunto; analisar possibilidades de metadados de assunto para a legislação federal com base em padrões de metadados e modelos de organização da informação abordados na literatura; e, com isso, propor metadados de assunto para a legislação federal brasileira. A ideia é usar esses metadados para diminuir a imprecisão dos resultados das pesquisas na legislação federal, tornando o processo mais rápido e eficiente.
Resumo:
Em uso desde a Grécia antiga e atualmente massificado na maioria dos países do mundo, o sistema de votação tradicional baseado em cédulas de papel possui diversos problemas associados à segurança, tais como dificuldades para evitar coerção do eleitor, venda do voto e substituição fraudulenta do eleitor. Além de problemas de usabilidade que acarretam erros de preenchimento da cédula e um processo de apuração lento, que pode durar dias. Ao lado disso, o sistema tradicional não fornece a contraprova do voto, que permite ao eleitor conferir se o seu voto foi corretamente contabilizado na apuração. Inicialmente acreditou-se que a informatização do sistema de votação resolveria todos os problemas do sistema tradicional. Porém, com a sua implantação em alguns países o sistema de votação eletrônica não mostrou-se capaz de fornecer garantias irrefutáveis que não tivesse sido alvo de alterações fraudulentas durante o seu desenvolvimento ou operação. A má reputação do sistema eletrônico está principalmente associada à falta de transparência dos processos que, em sua maioria, não proporcionam a materialização do voto, conferido pelo eleitor para fins de contagem manual, e nem geram evidências (contraprova) da correta contabilização do voto do eleitor. O objetivo deste trabalho é propor uma arquitetura de votação eletrônica que integra, de forma segura, o anonimato e autenticidade do votante, a confidencialidade e integridade do voto/sistema. O sistema aumenta a usabilidade do esquema de votação baseado em "Três Cédulas" de papel, implementando-o computacionalmente. O esquema oferece maior credibilidade ao sistema de votação através da materialização e contraprova do voto, resistência à coerção e ao comércio do voto. Utilizando esquemas de criptografia assimétrica e segurança computacional clássica, associado a um sistema de auditoria eficiente, a proposta garante segurança e transparência nos processos envolvidos. A arquitetura de construção modular distribui a responsabilidade entre suas entidades, agregando-lhe robustez e viabilizando eleições em grande escala. O protótipo do sistema desenvolvido usando serviços web e Election Markup Language mostra a viabilidade da proposta.
Resumo:
Este proyecto se basa en desarrollar una aplicación web llamada Emantake y su finalidad es facilitar la búsqueda de personas para el aprendizaje de idiomas.Para realizarlo se han utilizado diferentes lenguajes, entornos y tecnologías propios de este tipo de aplicaciones las cuales se han estudiado con detenimiento para la realización del proyecto.
Resumo:
10 p.
Resumo:
Research cruises were conducted in August-October 2007 to complete the third annual remotely operated vehicle (ROV)-based assessments of nearshore rocky bottom finfish at ten sites in the northern Channel Islands. Annual surveys at the Channel Islands have been conducted since 2004 at four sites and were expanded to ten sites in 2005 to monitor potential marine protected area (MPA)effects on baseline fish density. Six of the ten sites are in MPAs and four in nearby fished reference areas. In 2007 the amount of soft-only substrate on the 141 track lines surveyed was again estimated in real-time in order to target rocky bottom habitat. These real-time estimates of hard and mixed substrate for all ten sites averaged 57%, 1% more than the post-processed average of 56%. Surveys generated 69.9 km of usable video for use in finfish density calculations, with target rocky bottom habitat accounting for 56% (39.1 km) for all sites combined. The amount of rocky habitat sampled by site averaged 3.8 km and ranged from 3.3 km sampled at South Point, a State Marine Reserve (SMR) off Santa Rosa Island, to 4.7 km at Anacapa Island SMR. A sampling goal of 75 transects at all 10 sites was met using real-time habitat estimates combined with precautionary over-sampling by 10%. A total of seventy kilometers of sampling is projected to produce at least seventy-five 100 m2 transects per site. Thirteen of 26 finfish taxa observed were selected for quantitative evaluation over the time series based on a minimum criterion of abundance (0.05/100 m2). Ten of these 13 finfish appear to be more abundant at the state marine reserves relative to fished areas when densities were averaged across the 2005 to 2007 period. One of the species that appears to be more abundant in fished areas was señorita, a relatively small prey species that is not a commercial or recreational target. (PDF contains 83 pages.)
Resumo:
Ponencia leída en el Foro de Comunicaciones IkasArt II (BEC Barakaldo, 2010.06.18)
Resumo:
From May 22 to June 4, 2006, NOAA scientists led a research cruise using the ROPOS Remotely Operated Vehicle (ROV) to conduct a series of dives at targeted sites in the Olympic Coast National Marine Sanctuary (OCNMS) with the goal of documenting deep coral and sponge communities. Dive sites were selected from areas for which OCNMS had side scan sonar data indicating the presence of hard or complex substrate. The team completed 11 dives in sanctuary waters ranging from six to 52 hours in length, at depths ranging from 100 to 650 meters. Transect surveys were completed at 15 pre-selected sites, with additional observations made at five other sites. The survey locations included sites both inside and outside the Essential Fish Habitat (EFH) Conservation Area, known as Olympic 2, established by the Pacific Fishery Management Council, enacted on June 12, 2006. Bottom trawling is prohibited in the Olympic 2 Conservation Area for nontribal fishermen. The Conservation Area covers 159.4 square nautical miles or about 15 percent of the sanctuary. Several species of corals and sponges were documented at 14 of the 15 sites surveyed, at sites both inside and outside the Conservation Area, including numerous gorgonians and the stony corals Lophelia pertusa and Desmophyllum dianthus, as well as small patches of the reef building sponge Farrea occa. The team also documented Lophelia sp. and Desmophyllum sp. coral rubble, dead gorgonians, lost fishing gear, and other anthropogenic debris, supporting concerns over potential risks of environmental disturbances to coral health. (PDF contains 60 pages.)
Resumo:
Habitat mapping and characterization has been defined as a high-priority management issue for the Olympic Coast National Marine Sanctuary (OCNMS), especially for poorly known deep-sea habitats that may be sensitive to anthropogenic disturbance. As a result, a team of scientists from OCNMS, National Centers for Coastal Ocean Science (NCCOS), and other partnering institutions initiated a series of surveys to assess the distribution of deep-sea coral/sponge assemblages within the sanctuary and to look for evidence of potential anthropogenic impacts in these critical habitats. Initial results indicated that remotely delineating areas of hard bottom substrate through acoustic sensing could be a useful tool to increase the efficiency and success of subsequent ROV-based surveys of the associated deep-sea fauna. Accordingly, side scan sonar surveys were conducted in May 2004, June 2005, and April 2006 aboard the NOAA Ship McArthur II to: (1) obtain additional imagery of the seafloor for broader habitat-mapping coverage of sanctuary waters, and (2) help delineate suitable deep-sea coral/sponge habitat, in areas of both high and low commercial-fishing activities, to serve as sites for surveying-in more detail using an ROV on subsequent cruises. Several regions of the sea floor throughout the OCNMS were surveyed and mosaicked at 1-meter pixel resolution. Imagery from the side scan sonar mapping efforts was integrated with other complementary data from a towed camera sled, ROVs, sedimentary samples, and bathymetry records to describe geological and biological (where possible) aspects of habitat. Using a hierarchical deep-water marine benthic classification scheme (Greene et al. 1999), we created a preliminary map of various habitat polygon features for use in a geographical information system (GIS). This report provides a description of the mapping and groundtruthing efforts as well as results of the image classification procedure for each of the areas surveyed. (PDF contains 60 pages.)