917 resultados para Web Log Data
Resumo:
A dissertação tem como objeto a investigação das relações entre a o design de um website de comércio eletrônico de CDs e o comportamento do consumidor virtual, com ênfase a sua atitude e intenção de compra. O objetivo principal é mensurar o efeito do design da loja virtual (website) em seu papel de agente de vendas na Internet. A análise do comércio varejista de CDs foi escolhida, pois este produto é um dos principais artigos de venda neste canal. O estudo é apoiado em um referencial teórico, no qual são analisadas as características dos seguintes pontos: i) a Internet atuando como canal de vendas; ii) o comércio varejista de CD no Brasil e iii) o comportamento do consumidor e o seu processo decisório. Ainda no referencial teórico são apresentados os diversos modelos de avaliação de website existentes: baseado em Marketing, Teoria dos Dois Fatores, avaliação da qualidade, avaliação da web (W AM) e aceitação da Tecnologia na Web (T AM). A análise e comparação destes modelos serviu como base para o desenvolvimento da proposta do modelo de avaliação website. O estudo é complementado pelo desenvolvimento de uma pesquisa, com aplicação de questionário via web (websurvey). A coleta dos dados é utilizada como forma de validação estatística das relações existentes no modelo desenvolvido. Isto é feito por meio do uso da ferramenta de análise de Equações Estruturadas (SEM), suportada pelos conceitos e métodos de abordagem descritos no referencial teórico. A ferramenta permite tanto avaliar um modelo de mensuração e um modelo estrutural simultaneamente.
Resumo:
Computerized technological resources have become essential in education, particularly for teaching topics that require the performance of specific tasks. These resources can effectively help the execution of such tasks and the teaching-learning process itself. After the development of a Web site on the topic of nursing staff scheduling, this study aimed at comparing the development of students involved in the teaching-learning process of the previously mentioned topic, with and without the use of computer technology. Two random groups of undergraduate nursing students from a public university in São Paulo state, Brazil, were organized: a case group (used the Web site) and a control group (did not use the Web site). Data were collected from 2003 to 2005 after approval by the Research Ethics Committee. Results showed no significant difference in motivation or knowledge acquisition. A similar performance for the two groups was also verified. Other aspects observed were difficulty in doing the nursing staff scheduling exercise and the students' acknowledgment of the topic's importance for their training and professional lives; easy access was considered to be a positive aspect for maintaining the Web site.
Resumo:
This study was developed on the basis of petrophysics characterization, 3D seismic interpretation, and rock-wire-log integration. The results were integrated with amplitude attribute through cross plot (rock attribute x amplitude value). 3D seismic data also allowed inteipreting the top of Lagoa Feia, Macaé, and Carapebus formations, and Outeiro Member. The analyses of the maps of structures and attributes, integrated with wire-log data, suggest that Namorado turbidite level is candidate to be mapped with stratigraphic attributes like AverageTroughAmplitude, RMS velocity and Total AbsoluteAmplitude. Lagoa Feia Formation attribute maps (Dip-Azimuth and TotalEnergy) allows to interpret a low fault density at the carbonate coquina level in the Namorado field. This level is also considered one at the best seismic reflector and an important reservoir of the Campos Basin.
Resumo:
There is yet enthusiastic debate in the literature about the environmental conditions that originated the Cretaceous deposits of the Bauru Group, despite many authors accept that arid climatic conditions widely dominant at the base, evolved to chiefly fluvial-lacustrine conditions at the intermediate portion, and to arid conditions again at the top of the unit. The Bauru Group covers an area of about 117.000 km 2 of the Paraná Basin in São Paulo State territory. Core samples of this lithostratigraphic unit collected from a drill hole at Pirapozinho (Southwest of the São Paulo State) are described and together with well log data brought new information that do not agree with the described model. It was identified in this well the Caiuá, Pirapozinho, Santo Anastácio, Araçatuba and Adamantina formations. The study of these core samples clearly showed the dominance of hydrodynamic sedimentary structures and high to medium intensity of bioturbation in whole profile. These characteristics observed in core samples and compared to patterns of geophysical logs testify the dominance of fluvial processes in the Bauru Group deposition at the studied area. These new data suggests that the paleo-environmental evolution of the unit was much more complex, showing strong lateral and vertical changes that diverges from the model more widely accepted in the literature.
Resumo:
O imageamento da porosidade é uma representação gráfica da distribuição lateral da porosidade da rocha, estimada a partir de dados de perfis geofísicos de poço. Apresenta-se aqui uma metodologia para produzir esta imagem geológica, totalmente independente da intervenção do intérprete, através de um algoritmo, dito, interpretativo baseado em dois tipos de redes neurais artificiais. A primeira parte do algoritmo baseia-se em uma rede neural com camada competitiva e é construído para realizar uma interpretação automática do clássico gráfico o Pb - ΦN, produzindo um zoneamento do perfil e a estimativa da porosidade. A segunda parte baseia-se em uma rede neural com função de base radial, projetado para realizar uma integração espacial dos dados, a qual pode ser dividida em duas etapas. A primeira etapa refere-se à correlação de perfis de poço e a segunda à produção de uma estimativa da distribuição lateral da porosidade. Esta metodologia ajudará o intérprete na definição do modelo geológico do reservatório e, talvez o mais importante, o ajudará a desenvolver de um modo mais eficiente as estratégias para o desenvolvimento dos campos de óleo e gás. Os resultados ou as imagens da porosidade são bastante similares às seções geológicas convencionais, especialmente em um ambiente deposicional simples dominado por clásticos, onde um mapa de cores, escalonado em unidades de porosidade aparente para as argilas e efetiva para os arenitos, mostra a variação da porosidade e a disposição geométrica das camadas geológicas ao longo da seção. Esta metodologia é aplicada em dados reais da Formação Lagunillas, na Bacia do Lago Maracaibo, Venezuela.
Resumo:
No período de outubro a novembro de 1990, foi realizado na Bacia Sergipe-Alagoas o primeiro levantamento gravimétrico de poço no Brasil, através de um programa com a participação da Universidade Federal do Pará, a PETROBRÁS e o U.S.G.S. (United States Geological Survey). Este levantamento teve como objetivos o teste do equipamento, a resposta dos perfis gravimétricos em relação aos problemas encontrados nas bacias sedimentares brasileiras e a comparação com os dados de densidade obtidos com o perfil de densidade compensada (CDL). Os levantamentos foram realizados em três poços e os dados obtidos passaram por um processo de redução, onde os valores foram transformados para miligals e corrigidos dos efeitos de maré, deriva e terreno, para obter as densidades preliminares. Porém, a região onde foram realizados os levantamentos apresenta além do embasamento muito raso, uma seqüência evaporítica com contraste de densidade grande em relação ao resto do pacote sedimentar, gerando gradientes verticais anômalos. Estes efeitos foram então corrigidos e obtidos os valores finais de densidade. Com base em uma caracterização litológica prévia, os valores de densidade foram então comparados com o perfil CDL. Verificou-se a boa qualidade dos dados, o que permitiu o cálculo de valores de porosidade, mostrando assim possíveis intervalos de interesse à exploração de hidrocarbonetos, tanto no embasamento, reservatório mais importante, quanto no intervalo sedimentar.
Resumo:
Utilizando-se dados do campo de Camorim (Bacia de Sergipe-Alagoas), foi testado e aplicado um conjunto de técnicas estatísticas multivariantes (análises de agrupamentos, de componentes principais e discriminante) no intuito de identificar as fácies, previamente definidas em poços testemunhados, por meio dos perfis, viabilizando o reconhecimento das mesmas nos demais poços não testemunhados da área. A segunda etapa do processo de determinação das fácies consistiu no emprego de métodos auxiliares (análises composicional e de seqüência de fácies), que, combinados com as técnicas multivariantes, propiciaram melhores resultados na calibração rocha-perfil. A determinação das fácies, uma vez estabelecida, possibilitou o refinamento do processo de avaliação de formações ao viabilizar o exame de cada fácies-reservatório, isoladamente. Assim, esse procedimento tornou possível a escolha, para cada litologia, dos parâmetros utilizados na interpretação dos perfis ao mesmo tempo em que permitiu a totalização em separado dos valores de espessura, porosidade e saturação dos fluidos, bem como a adoção de diferentes valores de corte (cut-offs) para cada grupo considerado. Outras aplicações incluíram a melhoria na estimativa da porosidade e da permeabilidade, a adaptação de algoritmos para o cálculo preliminar de porosidade, a confecção de mapas de fácies e a geração automática de seções estratigráficas. Finalmente, foram destacadas a perspectiva de integração desse estudo com sistemas estatísticos de descrição de reservatórios, outras técnicas de determinação de fácies em desenvolvimento e a retomada da utilização de métodos estatísticos multivariantes em dados de perfis, como ferramenta de exploração.
Resumo:
Neste trabalho desenvolveu-se uma solução para o clássico problema da determinação automática de litologias. Construiu-se um banco de dados utilizando-se a técnica de análise discriminante aplicada sobre trechos testemunhados de poços perfilados de um campo situado em lâmina d'água profunda localizado na bacia de Campos. A técnica de análise de agrupamento, utilizada por um grande número de pesquisadores, foi testada para o mesmo conjunto de dados porém não forneceu resultados satisfatórios em comparação com os obtidos com a análise discriminante. Os dados de perfis, após sofrerem correções ambientais, são colocados em profundidade com os dados de testemunhagem e determina-se uma função discriminante que classifica as respostas dos perfis de acordo com as litofácies descritas nos testemunhos. Dessa forma obtém-se um banco de dados, a partir do qual se faz a discriminação de litologias em poços, testemunhados ou não, da mesma área. O banco de dados assim construído permite sua atualização através da incorporação de trechos testemunhados de novos poços. Mostra-se a necessidade de agrupar as litologias em quatro litofácies principais para este campo de maneira a padronizar os resultados, diminuir as indeterminações e melhorar a apresentação final. Como produto final obtém-se uma curva discriminada de eletrofácies que reproduz, com algum grau de certeza, as litofácies que reproduzem as litologias esperadas em subsuperfície. Como exemplo de aplicação deste método, utilizou-se as curvas discriminadas para correlacionar três poços, utilizando para isto um algoritmo de correlação automática.
Resumo:
Para a indústria do petróleo, a interpretação dos perfis de poço é a principal fonte de informação sobre a presença e quantificação de hidrocarbonetos em subsuperfície. Entretanto, em duas situações as novas tecnologias, tanto em termos do processo construtivo das ferramentas, quanto da transmissão dos dados não têm justificativa econômica, ensejando a utilização de um conjunto de perfis convencionais: reavaliações de campos maduros e avaliações de campos marginais. Os procedimentos de aquisição dos perfis convencionais podem alterar o valor da propriedade física bem como a localização dos limites verticais de uma camada rochosa. Este é um antigo problema na geofísica de poço – o paradoxo entre a resolução vertical e a profundidade de investigação de uma ferramenta de perfilagem. Hoje em dia, isto é contornado através da alta tecnologia na construção das novas ferramentas, entretanto, este problema ainda persiste no caso das ferramentas convencionais como, a ferramenta de raio gama natural (GR). Apresenta-se, neste trabalho, um novo método para atenuar as alterações induzidas no perfil pela ferramenta, através da integração do clássico modelo convolucional do perfil com as redes neurais recorrentes. Assume-se que um perfil de poço pode ser representado através da operação de convolução em profundidade entre a variação da propriedade física da rocha (perfil ideal) e uma função que representa a alteração produzida sobre a propriedade física, chamada como resposta vertical da ferramenta. Assim, desenvolve-se um processamento iterativo dos perfis, o qual atua na forma da operação de deconvolução, composto por três redes neurais recorrentes. A primeira visa estimar a resposta vertical da ferramenta; a segunda procura definir os limites verticais de cada camada rochosa e a última é construída para estimar o valor real da propriedade física. Este processamento é iniciado com uma estimativa externa tanto para o perfil ideal, quanto para a resposta vertical da ferramenta. Finalmente, mostram-se as melhorias na resolução vertical e na avaliação da propriedade física produzida por esta metodologia em perfis sintéticos e em perfis reais da formação Lagunillas, bacia do Lago Maracaibo, Venezuela.
Resumo:
Die vorliegende Dissertation analysiert die Middleware- Technologien CORBA (Common Object Request Broker Architecture), COM/DCOM (Component Object Model/Distributed Component Object Model), J2EE (Java-2-Enterprise Edition) und Web Services (inklusive .NET) auf ihre Eignung bzgl. eng und lose gekoppelten verteilten Anwendungen. Zusätzlich werden primär für CORBA die dynamischen CORBA-Komponenten DII (Dynamic Invocation Interface), IFR (Interface Repository) und die generischen Datentypen Any und DynAny (dynamisches Any) im Detail untersucht. Ziel ist es, a. konkrete Aussagen über diese Komponenten zu erzielen, und festzustellen, in welchem Umfeld diese generischen Ansätze ihre Berechtigung finden. b. das zeitliche Verhalten der dynamischen Komponenten bzgl. der Informationsgewinnung über die unbekannten Objekte zu analysieren. c. das zeitliche Verhalten der dynamischen Komponenten bzgl. ihrer Kommunikation zu messen. d. das zeitliche Verhalten bzgl. der Erzeugung von generischen Datentypen und das Einstellen von Daten zu messen und zu analysieren. e. das zeitliche Verhalten bzgl. des Erstellens von unbekannten, d. h. nicht in IDL beschriebenen Datentypen zur Laufzeit zu messen und zu analysieren. f. die Vorzüge/Nachteile der dynamischen Komponenten aufzuzeigen, ihre Einsatzgebiete zu definieren und mit anderen Technologien wie COM/DCOM, J2EE und den Web Services bzgl. ihrer Möglichkeiten zu vergleichen. g. Aussagen bzgl. enger und loser Koppelung zu tätigen. CORBA wird als standardisierte und vollständige Verteilungsplattform ausgewählt, um die o. a. Problemstellungen zu untersuchen. Bzgl. seines dynamischen Verhaltens, das zum Zeitpunkt dieser Ausarbeitung noch nicht oder nur unzureichend untersucht wurde, sind CORBA und die Web Services richtungsweisend bzgl. a. Arbeiten mit unbekannten Objekten. Dies kann durchaus Implikationen bzgl. der Entwicklung intelligenter Softwareagenten haben. b. der Integration von Legacy-Applikationen. c. der Möglichkeiten im Zusammenhang mit B2B (Business-to-Business). Diese Problemstellungen beinhalten auch allgemeine Fragen zum Marshalling/Unmarshalling von Daten und welche Aufwände hierfür notwendig sind, ebenso wie allgemeine Aussagen bzgl. der Echtzeitfähigkeit von CORBA-basierten, verteilten Anwendungen. Die Ergebnisse werden anschließend auf andere Technologien wie COM/DCOM, J2EE und den Web Services, soweit es zulässig ist, übertragen. Die Vergleiche CORBA mit DCOM, CORBA mit J2EE und CORBA mit Web Services zeigen im Detail die Eignung dieser Technologien bzgl. loser und enger Koppelung. Desweiteren werden aus den erzielten Resultaten allgemeine Konzepte bzgl. der Architektur und der Optimierung der Kommunikation abgeleitet. Diese Empfehlungen gelten uneingeschränkt für alle untersuchten Technologien im Zusammenhang mit verteilter Verarbeitung.
Resumo:
La produzione ontologica è un processo fondamentale per la crescita del Web Semantico in quanto le ontologie rappresentano i vocabolari formali con cui strutturare il Web of Data. Le notazioni grafiche ontologiche costituiscono il mezzo ideale per progettare ontologie OWL sensate e ben strutturate. Tuttavia la successiva fase di generazione ontologica richiede all'utente un fastidioso cambio sia di prospettiva sia di strumentazione. Questa tesi propone dunque GraMOS, Graffoo to Manchester OWL Syntax, un motore di trasformazione da modelli Graffoo a ontologie formali in grado di fondere le due fasi di progettazione e generazione ontologica.
Resumo:
Obiettivo di questa tesi dal titolo “Analisi di tecniche per l’estrazione di informazioni da documenti testuali e non strutturati” è quello di mostrare tecniche e metodologie informatiche che permettano di ricavare informazioni e conoscenza da dati in formato testuale. Gli argomenti trattati includono l'analisi di software per l'estrazione di informazioni, il web semantico, l'importanza dei dati e in particolare i Big Data, Open Data e Linked Data. Si parlerà inoltre di data mining e text mining.
Resumo:
Webbasierte Medien haben in den letzten Jahren eine stetig steigende Bedeutung im Alltag Jugendlicher. Konträr zu diesem Befund haben mediendidaktische Modelle kaum Eingang in die Politische Bildung, speziell die Politikdidaktik der Schule, gefunden. Zudem wird kritisch vermerkt, dass beim Einsatz digitaler Medien an klassischen lerntheoretischen Konzepten festgehalten wird, obwohl instruktionale Lehr-Lern-Settings als kontraproduktiv im Zusammenhang mit webbasierten Medien angesehen werden. Dagegen ist die in der Politikdidaktik äußerste kontrovers rezipierte konstruktivistische Lerntheorie äußerst anschlussfähig an eine Planung und Durchführung von Unterricht, welche den Fokus speziell auf den Einsatz webbasierter Medien richtet. rnAufgrund dieser Ausgangslage ist es das Erkenntnisinteresse dieser Arbeit, konstruktivistische Bedingungen des Politikunterrichts auf theoretischer Ebene zu formulieren. Dazu werden zunächst die erkenntnistheoretischen Grundlagen des Konstruktivismus anhand der zentralen Begriffe Autopoiesis, Soziale Konstruktion und Viabilität erörtert. In einem zweiten Schritt wird anhand der erkenntnistheoretischen Grundlagen gezeigt, wie eine konstruktivistische Lerntheorie formuliert werden kann. Dabei wird der Lernvorgang im Gegensatz zu den gängigen Modellen des Behaviorismus und Kognitivismus aus Schülersicht beschrieben. Im Anschluss wird der Einfluss des konstruktivistischen Paradigmas und einer konstruktivistischen Lerntheorie auf die Politikdidaktik aufgezeigt. rnAus dieser Analyse folgt, dass Schülerorientierung und Kontroversität sich als Kernprinzipien der Politischen Bildung uneingeschränkt anschlussfähig an die konstruktivistische Ausrichtung von Unterricht erweisen. Dabei wird die didaktische Rezeption und Umsetzungsproblematik dieser beiden didaktischen Prinzipien als Planungstools vor dem Hintergrund der Ziele des Politikunterrichts kritisch reflektiert. rnAus diesen lerntheoretischen Bedingungen wird abschließend analysiert, inwieweit webbasierte Medien bei der Umsetzung eines konstruktivistischen Politikunterrichts sinnvoll eingesetzt werden können. Dabei wird aufgezeigt, dass sich vor allem die in dieser Arbeit vorgestellten Medien Blog und Wiki für ein solches Vorhaben eignen. Die Analyse zeigt, dass eine enge Verzahnung von konstruktivistischer Lerntheorie und dem Einsatz webbasierter Medien im Politikunterricht möglich ist. Blogs und Wikis erweisen sich als geeignete Medien, um schülerorientierten und kontroversen Politikunterricht umzusetzen und den von Konstruktivisten geforderten grundlegenden Perspektivwechsel vorzunehmen. rn
Resumo:
The spectacular advances computer science applied to geographic information systems (GIS) in recent times has favored the emergence of several technological solutions. These developments have given rise to enormous opportunities for digital management of the territory. Among the technological solutions, the most famous Google Maps offers free online mapping dynamic exhaustive of the Maps. In addition to meet the enormous needs of urban indicators geotagged information, we did work on this project “Integration of an urban observatory on Google Maps.” The problem of geolocation in the urban observatory is particularly relevant in the sense that there is currently no data (descriptive and geographical) reliable on the urban sector; we must stick to extrapolate from data old and obsolete. This helps to curb the effectiveness of urban management to make difficult investment programming and to prevent the acquisition of knowledge to make cities engines of growth. The use of a geolocation tool coupled to the data would allow better monitoring of indicators Our project's objective is to develop an interactive map server (WebMapping) which map layer is formed from the resources of the Google Maps servers and match information from the field to produce maps of urban equipment and infrastructure of a city data to the client's request To achieve this goal, we will participate in a study of a GPS location of strategic sites in our core sector (health facilities), on the other hand, using information from the field, we will build a postgresql database that will link the information from the field to map from Google Maps via KML scripts and PHP appropriate. We will limit ourselves in our work to the city of Douala Cameroon with the sectors of health facilities with the possibility of extension to other areas and other cities. Keywords: Geographic Information System (GIS), Thematic Mapping, Web Mapping, data mining, Google API.
Resumo:
This work is conducted to study the geological and petrophysical features of the Trenton- Black River limestone formation. Log curves, crossplots and mineral identification methods using well-log data are used to determine the components and analyze changes in lithology. Thirty-five wells from the Michigan Basin are used to define the mineralogy of Trenton-Black River limestone. Using the different responses of a few log curves, especially gamma-ray, resistivity and neutron porosity, the formation tops for the Utica shale, the Trenton limestone, the Black River limestone and the Prairie du Chien sandstone are identified to confirm earlier authors’ work and provide a basis for my further work. From these, an isopach map showing the thickness of Trenton-Black River formation is created, indicating that its maximum thickness lies in the eastern basin and decreases gradually to the west. In order to obtain more detailed lithological information about the limestone formations at the thirty-five wells, (a) neutron-density and neutron-sonic crossplots, (b) mineral identification methods, including the M-N plot, MID plot, ϱmaa vs. Umaa MID plot, and the PEF plot, and (c) a modified mineral identification technique are applied to these wells. From this, compositions of the Trenton-Black River formation can be divided into three different rock types: pure limestone, partially dolomitized limestone, and shaly limestone. Maps showing the fraction of dolomite and shale indicate their geographic distribution, with dolomite present more in the western and southwestern basin, and shale more common in the north-central basin. Mineral identification is an independent check on the distribution found from other authors, who found similar distributions based on core descriptions. The Thomas Stieber method of analysis is best suited to sand-shale sequences, interpreting hree different distributions of shale within sand, including dispersed, laminated and structural. Since this method is commonly applied in clastic rocks, my work using the Thomas Stieber method is new, as an attempt to apply this technique, developed for clastics, to carbonate rocks. Based on the original assumption and equations with a corresponding change to the Trenton-Black River formation, feasibility of using the Thomas Stieber method in carbonates is tested. A graphical display of gamma-ray versus density porosity, using the properties of clean carbonate and pure shale, suggests the presence of laminated shale in fourteen wells in this study. Combined with Wilson’s study (2001), it is safe to conclude that when shale occurs in the Trenton-Black River formation, it tends to be laminated shale.