942 resultados para Blog datasets


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diante da recorrência da criação de personagens-escritores nas obras brasileiras de ficção publicadas a partir dos anos 1990, foi escolhida a produção de Daniel Galera como estudo de caso. O personagem-escritor foi observado como estratégia para discutir questões relativas à cena literária contemporânea. Foi delimitado como corpus dessa pesquisa o blog criado durante a estada de Daniel Galera em Buenos Aires, ao participar do projeto Amores Expressos, e o romance Cordilheira (2008), escrito como fruto dessa experiência. Tendo em vista a trajetória de sua carreira em constante relação com a internet, foi analisada a construção do escritor-personagem no blog hospedado no site do projeto, em contraponto à figura do personagem-escritor no romance. Para tanto, foram utilizados textos sobre a autoficção, a performance e a autoria. Na comparação dos textos de ambos os suportes, foram evidenciadas semelhanças e diferenças nas problematizações a respeito da formação do autor. Foi investigada a inserção de trechos do blog no romance como estratégia que oferece complexidade nos espelhamentos das imagens e enriquece os efeitos de leitura do romance

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta um sistema de indução de classificadores fuzzy. Ao invés de utilizar a abordagem tradicional de sistemas fuzzy baseados em regras, foi utilizado o modelo de Árvore de Padrões Fuzzy(APF), que é um modelo hierárquico, com uma estrutura baseada em árvores que possuem como nós internos operadores lógicos fuzzy e as folhas são compostas pela associação de termos fuzzy com os atributos de entrada. O classificador foi obtido sintetizando uma árvore para cada classe, esta árvore será uma descrição lógica da classe o que permite analisar e interpretar como é feita a classificação. O método de aprendizado originalmente concebido para a APF foi substituído pela Programação Genética Cartesiana com o intuito de explorar melhor o espaço de busca. O classificador APF foi comparado com as Máquinas de Vetores de Suporte, K-Vizinhos mais próximos, florestas aleatórias e outros métodos Fuzzy-Genéticos em diversas bases de dados do UCI Machine Learning Repository e observou-se que o classificador APF apresenta resultados competitivos. Ele também foi comparado com o método de aprendizado original e obteve resultados comparáveis com árvores mais compactas e com um menor número de avaliações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A renderização de volume direta tornou-se uma técnica popular para visualização volumétrica de dados extraídos de fontes como simulações científicas, funções analíticas, scanners médicos, entre outras. Algoritmos de renderização de volume, como o raycasting, produzem imagens de alta qualidade. O seu uso, contudo, é limitado devido à alta demanda de processamento computacional e o alto uso de memória. Nesse trabalho, propomos uma nova implementação do algoritmo de raycasting que aproveita a arquitetura altamente paralela do processador Cell Broadband Engine, com seus 9 núcleos heterogêneos, que permitem renderização eficiente em malhas irregulares de dados. O poder computacional do processador Cell BE demanda um modelo de programação diferente. Aplicações precisam ser reescritas para explorar o potencial completo do processador Cell, que requer o uso de multithreading e código vetorizado. Em nossa abordagem, enfrentamos esse problema distribuindo a computação de cada raio incidente nas faces visíveis do volume entre os núcleos do processador, e vetorizando as operações da integral de iluminação em cada um. Os resultados experimentais mostram que podemos obter bons speedups reduzindo o tempo total de renderização de forma significativa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com cada vez mais intenso desenvolvimento urbano e industrial, atualmente um desafio fundamental é eliminar ou reduzir o impacto causado pelas emissões de poluentes para a atmosfera. No ano de 2012, o Rio de Janeiro sediou a Rio +20, a Conferência das Nações Unidas sobre Desenvolvimento Sustentável, onde representantes de todo o mundo participaram. Na época, entre outros assuntos foram discutidos a economia verde e o desenvolvimento sustentável. O O3 troposférico apresenta-se como uma variável extremamente importante devido ao seu forte impacto ambiental, e conhecer o comportamento dos parâmetros que afetam a qualidade do ar de uma região, é útil para prever cenários. A química das ciências atmosféricas e meteorologia são altamente não lineares e, assim, as previsões de parâmetros de qualidade do ar são difíceis de serem determinadas. A qualidade do ar depende de emissões, de meteorologia e topografia. Os dados observados foram o dióxido de nitrogênio (NO2), monóxido de nitrogênio (NO), óxidos de nitrogênio (NOx), monóxido de carbono (CO), ozônio (O3), velocidade escalar vento (VEV), radiação solar global (RSG), temperatura (TEM), umidade relativa (UR) e foram coletados através da estação móvel de monitoramento da Secretaria do Meio Ambiente (SMAC) do Rio de Janeiro em dois locais na área metropolitana, na Pontifícia Universidade Católica (PUC-Rio) e na Universidade do Estado do Rio de Janeiro (UERJ) no ano de 2011 e 2012. Este estudo teve três objetivos: (1) analisar o comportamento das variáveis, utilizando o método de análise de componentes principais (PCA) de análise exploratória, (2) propor previsões de níveis de O3 a partir de poluentes primários e de fatores meteorológicos, comparando a eficácia dos métodos não lineares, como as redes neurais artificiais (ANN) e regressão por máquina de vetor de suporte (SVM-R), a partir de poluentes primários e de fatores meteorológicos e, finalmente, (3) realizar método de classificação de dados usando a classificação por máquina de vetor suporte (SVM-C). A técnica PCA mostrou que, para conjunto de dados da PUC as variáveis NO, NOx e VEV obtiveram um impacto maior sobre a concentração de O3 e o conjunto de dados da UERJ teve a TEM e a RSG como as variáveis mais importantes. Os resultados das técnicas de regressão não linear ANN e SVM obtidos foram muito próximos e aceitáveis para o conjunto de dados da UERJ apresentando coeficiente de determinação (R2) para a validação, 0,9122 e 0,9152 e Raiz Quadrada do Erro Médio Quadrático (RMECV) 7,66 e 7,85, respectivamente. Quanto aos conjuntos de dados PUC e PUC+UERJ, ambas as técnicas, obtiveram resultados menos satisfatórios. Para estes conjuntos de dados, a SVM mostrou resultados ligeiramente superiores, e PCA, SVM e ANN demonstraram sua robustez apresentando-se como ferramentas úteis para a compreensão, classificação e previsão de cenários da qualidade do ar

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta o desenvolvimento de um sistema de tomada de decisão que propõe uma metodologia inteligente, de tal maneira a efetuar a melhor alocação possível de um grupo de usuários a um grupo de recursos em um espaço geográfico. Tal metodologia se baseou na lógica fuzzy e ao longo da dissertação foram feitas comparações com outras técnicas, como o Algoritmo Ingênuo e a Busca Exaustiva. O conjunto de dados que foi adotado como o escopo desse trabalho foi a matrícula de alunos do município de Nova Iguaçu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os dados geológicos e geofísicos escolhidos para o tema de estudo pertencem a Bacia do Amazonas, na região centro-norte do Brasil. A Bacia do Amazonas é uma bacia intracratônica com cerca de 500.000 km. A mesma está limitada ao norte pelo Escudo das Guianas e ao sul pelo Escudo Brasileiro. O limite oeste com a Bacia do Solimões é marcado pelo Arco de Purus, ao passo que o Arco de Gurupá constitui seu limite leste. Possui características inerentes a uma bacia intracratônica paleozóica, com uma longa história evolutiva, marcada por discordâncias expressivas e com uma cunha sedimentar relativamente rasa se comparada às bacias cretáceas brasileiras, o que levanta controvérsia a respeito da suficiência do soterramento para a eficiência de geração de hidrocarboneto. Podem ser reconhecidas nos 5000 m do preenchimento sedimentar da Bacia do Amazonas, duas seqüências de primeira ordem: uma paleozóica, intrudida por diques e soleiras de diabásio, na passagem do Triássico para o Jurássico, e uma mesozóica-cenozóica que representam um aspecto importante na evolução térmica da matéria orgânica que ocorre na primeira seqüência. Com relação à exploração de petróleo, apesar do fomento exploratório ocorrido nos últimos anos, a bacia ainda é considerada pouco explorada sendo sua maior reserva a da província de Urucu. Um dos fatores que dificultam bastante a exploração desta bacia assim como a bacia do Solimões a oeste é o acesso restrito, pois estão situadas em áreas remotas e florestadas, de difícil acesso, com muitas reservas indígenas e florestais, o que causa restrições logísticas, operacionais e legais. O efeito térmico das intrusões ígneas é considerado como o responsável pelo acréscimo de calor necessário à maturação da matéria orgânica e conseqüente geração de hidrocarbonetos. Este trabalho contribui com a reconstrução da história térmica desta bacia a partir da modelagem das variáveis termais e da história de soterramento. Para isso, foram utilizados modelos consagrados na literatura, que permitem, de forma simples, a estimativa do fluxo térmico através do embasamento e da seqüência sedimentar. Na análise da influência de intrusões ígneas na estrutura térmica da bacia, o modelo bidimensional desenvolvido pelo método de diferenças finitas se mostrou apropriado. Utilizou-se o fluxo térmico basal calculado nas condições de contorno da modelagem da influência térmica das ígneas. Como resultado obteve-se a estruturação térmica da bacia e a historia maturação de suas rochas geradoras

Relevância:

10.00% 10.00%

Publicador:

Resumo:

MOTIVATION: We present a method for directly inferring transcriptional modules (TMs) by integrating gene expression and transcription factor binding (ChIP-chip) data. Our model extends a hierarchical Dirichlet process mixture model to allow data fusion on a gene-by-gene basis. This encodes the intuition that co-expression and co-regulation are not necessarily equivalent and hence we do not expect all genes to group similarly in both datasets. In particular, it allows us to identify the subset of genes that share the same structure of transcriptional modules in both datasets. RESULTS: We find that by working on a gene-by-gene basis, our model is able to extract clusters with greater functional coherence than existing methods. By combining gene expression and transcription factor binding (ChIP-chip) data in this way, we are better able to determine the groups of genes that are most likely to represent underlying TMs. AVAILABILITY: If interested in the code for the work presented in this article, please contact the authors. SUPPLEMENTARY INFORMATION: Supplementary data are available at Bioinformatics online.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This project provides a framework for developing the capabilities of using satellite and related oceanographic and climatological data to improve environmental monitoring and characterization of physical, biological, and water quality parameters in the National Marine Sanctuaries (NMS). The project sought to: 1) assemble satellite imagery datasets in order to extract spatially explicit time series information on temperature, chlorophyll, and light availability for the Cordell Bank, Gulf of the Farallones, and Monterey Bay National Marine Sanctuaries. 2) perform preliminary analyses with these data in order to identify seasonal, annual, inter-annual, and event-driven patterns.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

NOAA’s National Centers for Coastal Ocean Science Biogeography Branch has mapped and characterized large portions of the coral reef ecosystems inside the U.S. coastal and territorial waters, including the U.S. Caribbean. The complementary protocols used in these efforts have enabled scientists and managers to quantitatively and qualitatively compare marine ecosystems in tropical U.S. waters. The Biogeography Branch used similar protocols to generate new benthic habitat maps for Fish Bay, Coral Bay and the St. Thomas East End Reserve (STEER). While this mapping effort marks the third time that some of these shallow-water habitats (≤40 m) have been mapped, it is the first time that nearly 100% of the seafloor has been characterized in each of these areas. It is also the first time that high resolution imagery describing seafloor depth has been collected in each of these areas. Consequently, these datasets provide new information describing the distribution of coral reef ecosystems and serve as a spatial baseline for monitoring change in the Fish Bay, Coral Bay and the STEER. Benthic habitat maps were developed for approximately 64.3 square kilometers of seafloor in and around Fish Bay, Coral Bay and the STEER. Twenty seven percent (17.5 square kilometers) of these habitat maps describe the seafloor inside the boundaries of the STEER, the Virgin Islands National Park and the Virgin Islands Coral Reef National Monument. The remaining 73% (46.8 square kilometers) describe the seafloor outside of these MPA boundaries. These habitat maps were developed using a combination of semi-automated and manual classification methods. Habitats were interpreted from aerial photographs and LiDAR (Light Detection and Ranging) imagery. In total, 155 distinct combinations of habitat classes describing the geology and biology of the seafloor were identified from the source imagery.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Long-term living resource monitoring programs are commonly conducted globally to evaluate trends and impacts of environmental change and management actions. For example, the Woods Hole bottom trawl survey has been conducted since 1963 providing critical information on the biology and distribution of finfish and shellfish in the North Atlantic (Despres-Patango et al. 1988). Similarly in the Chesapeake Bay, the Maryland Department of Natural Resources (MDNR) Summer Blue Crab Trawl survey has been conducted continuously since 1977 providing management-relevant information on the abundance of this important commercial and recreational species. A key component of monitoring program design is standardization of methods over time to allow for a continuous, unbiased data set. However, complete standardization is not always possible where multiple vessels, captains, and crews are required to cover large geographic areas (Tyson et al. 2006). Of equal issue is technological advancement of gear which serves to increase capture efficiency or ease of use. Thus, to maintain consistency and facilitate interpretation of reported data in long-term datasets, it is imperative to understand and quantify the impacts of changes in gear and vessels on catch per unit of effort (CPUE). While vessel changes are inevitable due to ageing fleets and other factors, gear changes often reflect a decision to exploit technological advances. A prime example of this is the otter trawl, a common tool for fisheries monitoring and research worldwide. Historically, trawl nets were constructed of natural materials such as cotton and linen. However modern net construction consists of synthetic materials such as polyamide, polyester, polyethylene, and polypropylene (Nielson et. al. 1983). Over the past several decades, polyamide materials which will be referred to as nylon, has been a standard material used in otter trawl construction. These trawls are typically dipped into a latex coating for increased abrasion resistance, a process that is referred to as “green dipped.” More recently, polyethylene netting has become popular among living resource monitoring agencies. Polyethylene netting, commonly known as sapphire netting, consists of braided filaments that form a very durable material more resistant to abrasion than nylon. Additionally, sapphire netting allows for stronger knot strength during construction of the net further increasing the net’s durability and longevity. Also, sapphire absorbs less water with a specific gravity near 0.91 allowing the material to float as compared to nylon with specific gravity of 1.14 (Nielson et. al. 1983). This same property results in a light weight net which is more efficient in deployment, retrieval and fishing of the net, particularly when towing from small vessels. While there are many advantages to the sapphire netting, no comparative efficiency data is available for these two trawl net types. Traditional nylon netting has been used consistently for decades by the MDDNR to generate long term living resource data sets of great value. However, there is much interest in switching to the advanced materials. In addition, recent collaborative efforts between MDNR and NOAA’s Cooperative Oxford Laboratory (NOAA-COL) require using different vessels for trawling in support of joint projects. In order to continue collaborative programs, or change to more innovative netting materials, the influence of these changes must be demonstrated to be negligible or correction factors determined. Thus, the objective of this study was to examine the influence of trawl net type, vessel type, and their interaction on capture efficiency.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This report examines the marine biogeography of the Samoan Archipelago (~14º S latitude along the international date-line) with a focus on regional ocean climate, connectivity among islands due to larval transport, distributions of reef fish and coral communities, and the extent of existing marine protected areas. Management decisions and prior assessments in the archipelago have typically been split along the international political boundary between the islands of Samoa and those of American Samoa despite their close proximity and shared resources. A key goal in this assessment was to compile data from both jurisdictions and to conduct the characterization across the entire archipelago. The report builds upon earlier assessments by re-analyzing and interpreting many pre-existing datasets, adding more recent biogeographic data sources, and by combining earlier findings into a multidisciplinary summary of marine biogeography. The assessment is divided into 5 chapters and supporting appendices. Each chapter was written and reviewed in collaboration with subject matter specialists and local experts. In Chapter 1, a short introduction to the overall scope and approach of the report is provided. In Chapter 2, regional ocean climate is characterized using remote sensing datasets and discussed in the context of local observations. In Chapter 3, regional ocean currents and transport of coral and fish larvae are investigated among the islands of the archipelago and surrounding island nations. In Chapter 4, distinct reef fish and coral communities across the archipelago are quantified on the basis of overall biodiversity, abundance, and community structure. In Chapter 5, the existing network of MPAs in American Samoa is evaluated based on the habitats, reef fish, and coral communities that are encompassed. Appendices provide analytical details omitted from some chapters for brevity as well as supplemental datasets needed as inputs for the main chapters in the assessment. Appendices include an inventory of regional seamounts, a description of shore to shelf edge benthic maps produced for Tutuila, analytical details of reef fish and coral datasets, and supplemental information on the many marine protected areas in American Samoa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This study describes fish assemblages and their spatial patterns off the coast of California from Point Arena to Point Sal, by combining the results of the multivariate analyses of several fisheries datasets with a geographic information system. In order to provide comprehensive spatial coverage for the areas of inshore, continental shelf, and continental slope, three fisheries datasets were analyzed: 1) Inshore: the California Department of Fish and Game dataset of fishery-dependent commercial passenger fishing vessel trips that targeted rockfish; 2) Continental Shelf: the National Marine Fisheries Service (NMFS) fishery-independent bottom trawls; and 3) Continental Slope: the NMFS fishery-independent bottom trawls on the continental slope. One-hundred seven species were analyzed. These species represented those captured in at least 5% of the fishing trips or trawls in at least one of the three data sets. We analyzed each of the three datasets separately, and the three sets of results were combined to define 28 species assemblages and 23 site groups. A species assemblage consisted of species caught together, whereas a site group consisted of fishing trips or trawl locations that tended to have the same species assemblages. At the scale of these datasets, 97% of all site groups were significantly segregated by depth.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nonindigenous species (NIS) are a major threat to marine ecosystems, with possible dramatic effects on biodiversity, biological productivity, habitat structure and fisheries. The Papahānaumokuākea Marine National Monument (PMNM) has taken active steps to mitigate the threats of NIS in Northwestern Hawaiian Islands (NWHI). Of particular concern are the 13 NIS already detected in NWHI and two invasive species found among the main Hawaiian Islands, snowflake coral (Carijoa riseii) and a red alga (Hypnea musciformis). Much of the information regarding NIS in NWHI has been collected or informed by surveys using conventional SCUBA or fishing gear. These technologies have significant drawbacks. SCUBA is generally constrained to depths shallower than 40 m and several NIS of concern have been detected well below this limit (e.g., L. kasmira – 256 m) and fishing gear is highly selective. Consequently, not all habitats or species can be properly represented. Effective management of NIS requires knowledge of their spatial distribution and abundance over their entire range. Surveys which provide this requisite information can be expensive, especially in the marine environment and even more so in deepwater. Technologies which minimize costs, increase the probability of detection and are capable of satisfying multiple objectives simultaneously are desired. This report examines survey technologies, with a focus on towed camera systems (TCSs), and modeling techniques which can increase NIS detection and sampling efficiency in deepwater habitats of NWHI; thus filling a critical data gap in present datasets. A pilot study conducted in 2008 at French Frigate Shoals and Brooks Banks was used to investigate the application of TCSs for surveying NIS in habitats deeper than 40 m. Cost and data quality were assessed. Over 100 hours of video was collected, in which 124 sightings of NIS were made among benthic habitats from 20 to 250 m. Most sightings were of a single cosmopolitan species, Lutjanus kasmira, but Cephalopholis argus, and Lutjanus fulvus, were also detected. The data expand the spatial distributions of observed NIS into deepwater habitats, identify algal plain as an important habitat and complement existing data collected using SCUBA and fishing gear. The technology’s principal drawback was its inability to identify organisms of particular concern, such as Carijoa riseii and Hypnea musciformis due to inadequate camera resolution and inability to thoroughly inspect sites. To solve this issue we recommend incorporating high-resolution cameras into TCSs, or using alternative technologies, such as technical SCUBA diving or remotely operated vehicles, in place of TCSs. We compared several different survey technologies by cost and their ability to detect NIS and these results are summarized in Table 3.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The personal computer has become commonplace on the desk of most scientists. As hardware costs have plummeted, software capabilities have expanded enormously, permitting the scientist to examine extremely large datasets in novel ways. Advances in networking now permit rapid transfer of large datasets, which can often be used unchanged from one machine to the next. In spite of these significant advances, many scientists still use their personal computers only for word processing or e-mail, or as "dumb terminals". Many are simply unaware of the richness of software now available to statistically analyze and display scientific data in highly innovative ways. This paper presents several examples drawn from actual climate data analysis that illustrate some novel and practical features of several widely-used software packages for Macintosh computers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

EXTRACT (SEE PDF FOR FULL ABSTRACT): The dynamics and predictability of decadal climate variability over the North Pacific and North America are investigated by analyzing various observational datasets and the output of a state-of-the-art coupled ocean-atmosphere general circulation model, which was integrated for 120 years.