882 resultados para Branch and bound algorithms
Resumo:
O presente estudo tem como objetivo geral traçar um perfil das escolhas léxico-gramaticais da escrita em inglês de um grupo de aprendizes brasileiros na cidade do Rio de Janeiro, ao longo dos anos de 2009 a 2012, através da análise de sua produção de quadrigramas (ou blocos de quatro itens lexicais usados com frequência por vários aprendizes) em composições escritas como parte da avaliação final de curso. Como objetivo específico, a pesquisa pretendeu analisar se os quadrigramas produzidos estavam dentre aqueles que haviam sido previamente ensinados para a execução da redação ou se pertenceriam a alguma outra categoria, isto é, quadrigramas já incorporados ao uso da língua ou quadrigramas errôneos usados com abrangência pela população investigada. Para tal, foram coletadas composições escritas por aprendizes de mesmo nível de proficiência de várias filiais de um mesmo curso livre de inglês na cidade do Rio de Janeiro. Em seguida, essas composições foram digitadas e anotadas para constituírem um corpus digital facilmente identificável em termos do tipo e gênero textual, perfil do aprendiz, filial e área de origem do Rio de Janeiro. O estudo faz uso de preceitos e métodos da Linguística de Corpus, área da Linguística que compila grandes quantidades de textos e deles extrai dados com o auxílio de um programa de computador para mapear uso, frequência, distribuição e abrangência de determinados fenômenos linguístico ou discursivo. O resultado demonstra que os aprendizes investigados usaram poucos quadrigramas ensinados e, coletivamente, preferiram usar outros que não haviam sido ensinados nas aulas específicas para o nível cursado. O estudo também demonstrou que quando o gênero textual faz parte de seu mundo pessoal, os aprendizes parecem utilizar mais quadrigramas previamente ensinados. Isto pode querer dizer que o gênero pode influenciar nas escolhas léxico-gramaticais corretas. O estudo abre portas para se compreender a importância de blocos léxico-gramaticais em escrita em L2 como forma de assegurar fluência e acuracidade no idioma e sugere que é preciso proporcionar maiores oportunidades de prática e conscientização dos aprendizes quanto ao uso de tais blocos
Resumo:
O surgimento de novos serviços de telecomunicações tem provocado um enorme aumento no tráfego de dados nas redes de transmissão. Para atender a essa demanda crescente, novas tecnologias foram desenvolvidas e implementadas ao longo dos anos, sendo que um dos principais avanços está na área de transmissão óptica, devido à grande capacidade de transporte de informação da fibra óptica. A tecnologia que melhor explora a capacidade desse meio de transmissão atualmente é a multiplexação por divisão de comprimento de onda ou Wavelength Division Multiplexing (WDM) que permite a transmissão de diversos sinais utilizando apenas uma fibra óptica. Redes ópticas WDM se tornaram muito complexas, com enorme capacidade de transmissão de informação (terabits por segundo), para atender à explosão de necessidade por largura de banda. Nesse contexto, é de extrema importância que os recursos dessas redes sejam utilizados de forma inteligente e otimizada. Um dos maiores desafios em uma rede óptica é a escolha de uma rota e a seleção de um comprimento de onda disponível na rede para atender uma solicitação de conexão utilizando o menor número de recursos possível. Esse problema é bastante complexo e ficou conhecido como problema de roteamento e alocação de comprimento de onda ou, simplesmente, problema RWA (Routing and Wavelentgh Assignment problem). Muitos estudos foram realizados com o objetivo de encontrar uma solução eficiente para esse problema, mas nem sempre é possível aliar bom desempenho com baixo tempo de execução, requisito fundamental em redes de telecomunicações. A técnica de algoritmo genético (AG) tem sido utilizada para encontrar soluções de problemas de otimização, como é o caso do problema RWA, e tem obtido resultados superiores quando comparada com soluções heurísticas tradicionais encontradas na literatura. Esta dissertação apresenta, resumidamente, os conceitos de redes ópticas e de algoritmos genéticos, e descreve uma formulação do problema RWA adequada à solução por algoritmo genético.
Resumo:
A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.
Resumo:
O gerenciamento do tempo nos projetos de construção civil usualmente utiliza algoritmos determinísticos para o cálculo dos prazos de finalização e algoritmos PERT para avaliação da probabilidade de o mesmo terminar até uma determinada data. Os resultados calculados pelos algoritmos tradicionais possuem defasagens nos prazos se comparados aos encontrados na realidade o que vem fazendo com que a simulação venha se tornando uma ferramenta cada vez mais utilizada no gerenciamento de projetos. O objetivo da dissertação é estudar o problema dos prazos de finalização dos projetos desenvolvendo novas técnicas de cálculo que reflitam melhor os prazos encontrados na vida real. A partir disso é criada uma ferramenta prática de gerenciamento do tempo de atividades de projetos de construção enxuta baseada em planilha eletrônica onde serão utilizadas técnicas de simulação a eventos discretos, com base em distribuições de probabilidade como, por exemplo, a distribuição beta.
Resumo:
Nesta dissertação são analisados métodos de localização baseados na rede, com destaque para os métodos de correlação de assinaturas de rádio-frequência (DCM - Database Correlation Methods). Métodos baseados na rede não requerem modificações nos terminais móveis (MS - Mobile Stations), sendo portanto capazes de estimar a localização de MS legados, i.e., sem suporte específico a posicionamento. Esta característica, associada a alta disponibilidade e precisão dos métodos DCM, torna-os candidatos viáveis para diversas aplicações baseadas em posição, e em particular para a localização de chamadas para números de emergência - polícia, defesa civil, corpo de bombeiros, etc. - originadas de telefones móveis celulares. Duas técnicas para diminuição do tempo médio para produção de uma estimativa de posição são formuladas: a filtragem determinística e a busca otimizada utilizando algoritmos genéticos. Uma modificação é realizada nas funções de avaliação utilizadas em métodos DCM, inserindo um fator representando a inacurácia intrínseca às medidas de nível de sinal realizadas pelos MS. As modificações propostas são avaliadas experimentalmente em redes de telefonia móvel celular de segunda e terceira gerações em ambientes urbanos e suburbanos, assim como em redes locais sem fio em ambiente indoor. A viabilidade da utilização de bancos de dados de correlação (CDB - Correlation Database) construídos a partir de modelagem de propagação é analisada, bem como o efeito da calibração de modelos de propagação empíricos na precisão de métodos DCM. Um dos métodos DCM propostos, utilizando um CDB calibrado, teve um desempenho superior ao de vários outros métodos DCM publicados na literatura, atingindo em área urbana a precisão exigida dos métodos baseados na rede pela regulamentação FCC (Federal Communications Commission) para o serviço E911 (Enhanced 911 ).
Conselhos Comunitários de Segurança: a violência em diálogo políticas governamentais e suas práticas
Resumo:
Os conselhos comunitários de segurança pública do Rio de Janeiro representam uma mudança institucional na área das políticas públicas de segurança. Trata-se de um canal de abertura que permite a participação no plano local, caracterizado pela busca da instauração de diferentes padrões de interação entre governo e sociedade em torno do tema segurança. Baseado nas recentes análises acerca da sociedade civil, em que esta vem sendo tratada cada vez mais como instância aproximada da esfera governamental. O trabalho propõe expor uma análise político-social do conselho comunitário do bairro Méier e suas adjacências, localizados na Zona Norte do Rio de Janeiro. Esta região é conhecida pelos contrastes sociais e elevados índices de violência, por concentrar, de uma só vez, um comércio próspero, grande número de habitantes e diversas comunidades carentes dominadas pelo tráfico de drogas e de armas. A experiência deste conselho permite conhecer que a consolidação desta arena depende não só da presença de organizações e representantes sociais aptos a reivindicar múltiplos interesses, mas também do comprometimento do governo em reconhecer essas arenas como canais privilegiados na relação entre poder público e sociedade. O conselho caracteriza-se como uma ferramenta inovadora à medida que trata de um tema conflituoso como a segurança pública. Esta arena permite a aproximação entre comunidade e instituições historicamente fechadas como as polícias militar e civil. O exercício dos conselhos comunitários de segurança pública pode colaborar para o aprofundamento de uma democracia brasileira mais participativa e de um Estado mais poroso, na medida em que aposta no envolvimento de uma sociedade civil mais organizada e atuante, de um Poder Executivo e órgãos governamentais mais dispostos ao diálogo.
Resumo:
A partir de 2011, ocorreram e ainda ocorrerão eventos de grande repercussão para a cidade do Rio de Janeiro, como a conferência Rio+20 das Nações Unidas e eventos esportivos de grande importância mundial (Copa do Mundo de Futebol, Olimpíadas e Paraolimpíadas). Estes acontecimentos possibilitam a atração de recursos financeiros para a cidade, assim como a geração de empregos, melhorias de infraestrutura e valorização imobiliária, tanto territorial quanto predial. Ao optar por um imóvel residencial em determinado bairro, não se avalia apenas o imóvel, mas também as facilidades urbanas disponíveis na localidade. Neste contexto, foi possível definir uma interpretação qualitativa linguística inerente aos bairros da cidade do Rio de Janeiro, integrando-se três técnicas de Inteligência Computacional para a avaliação de benefícios: Lógica Fuzzy, Máquina de Vetores Suporte e Algoritmos Genéticos. A base de dados foi construída com informações da web e institutos governamentais, evidenciando o custo de imóveis residenciais, benefícios e fragilidades dos bairros da cidade. Implementou-se inicialmente a Lógica Fuzzy como um modelo não supervisionado de agrupamento através das Regras Elipsoidais pelo Princípio de Extensão com o uso da Distância de Mahalanobis, configurando-se de forma inferencial os grupos de designação linguística (Bom, Regular e Ruim) de acordo com doze características urbanas. A partir desta discriminação, foi tangível o uso da Máquina de Vetores Suporte integrado aos Algoritmos Genéticos como um método supervisionado, com o fim de buscar/selecionar o menor subconjunto das variáveis presentes no agrupamento que melhor classifique os bairros (Princípio da Parcimônia). A análise das taxas de erro possibilitou a escolha do melhor modelo de classificação com redução do espaço de variáveis, resultando em um subconjunto que contém informações sobre: IDH, quantidade de linhas de ônibus, instituições de ensino, valor m médio, espaços ao ar livre, locais de entretenimento e crimes. A modelagem que combinou as três técnicas de Inteligência Computacional hierarquizou os bairros do Rio de Janeiro com taxas de erros aceitáveis, colaborando na tomada de decisão para a compra e venda de imóveis residenciais. Quando se trata de transporte público na cidade em questão, foi possível perceber que a malha rodoviária ainda é a prioritária
Resumo:
Este trabalho apresenta o projeto e os algoritmos de controle, de um sistema de geração de energia híbrido. Este sistema é formado por conversores de potência conectados em Back-to-Back associados a um arranjo solar fotovoltaico, que por sua vez é conectado no lado CC dos conversores. Em relação ao sistema de geração fotovoltaico, a contribuição consiste no desenvolvimento de cinco algoritmos para determinar o ponto de máxima potência (MPP) do arranjo fotovoltaico. O primeiro algoritmo consiste em uma versão modificada do algoritmo de Perturbar e Observar (PeO); o segundo algoritmo proposto é baseado no método do gradiente (MG); e o terceiro é baseado na otimização do MG (MGO). Porém, são desenvolvidos algoritmos híbridos que combinam rede neural com o método PeO, e rede neural com o algoritmo MGO. O sistema foi desenvolvido e simulado utilizando o Matlab/Simulink, e os resultados de simulação são apresentados com objetivo da avaliar o comportamento do sistema e a resposta dos diferentes algoritmos. Esta resposta foi avaliada para condições transitórias e de regime permanente, considerando diferentes requisitos de consumo na carga, irradiância e temperatura.
Resumo:
The mission of NOAA’s Office of National Marine Sanctuaries (ONMS) is to serve as the trustee for a system of marine protected areas, to conserve, protect and enhance biodiversity. To assist in accomplishing this mission, the ONMS has developed a partnership with NOAA’s Center for Coastal Monitoring and Assessment’s Biogeography Branch (CCMA-BB) to conduct biogeographic assessments of marine resources within and adjacent to the marine waters of NOAA’s National Marine Sanctuaries (Kendall and Monaco, 2003). Biogeography is the study of spatial and temporal distributions of organisms, their associated habitats, and the historical and biological factors that influence species’ distributions. Biogeography provides a framework to integrate species distributions and life history data with information on the habitats of a region to characterize and assess living marine resources within a sanctuary. The biogeographic data are integrated in a Geographical Information System (GIS) to enable visualization of species’ spatial and temporal patterns, and to predict changes in abundance that may result from a variety of natural and anthropogenic perturbations or management strategies (Monaco et al., 2005; Battista and Monaco, 2004). Defining biogeographic patterns of living marine resources found throughout the Northwestern Hawaiian Islands (NWHI) was identified as a priority activity at a May 2003 workshop designed to outline scientifi c and management information needs for the NWHI (Alexander et al., 2004). NOAA’s Biogeography Branch and the Papahanaumokuakea Marine National Monument (PMNM) under the direction of the ONMS designed and implemented this biogeographic assessment to directly support the research and management needs of the PMNM by providing a suite of spatially-articulated products in map and tabular formats. The major fi ndings of the biogeographic assessment are organized by chapter and listed below.
Resumo:
Coral reef ecosystems of the Virgin Islands Coral Reef National Monument, Virgin Islands National Park and the surrounding waters of St. John, U.S. Virgin Islands are a precious natural resource worthy of special protection and conservation. The mosaic of habitats including coral reefs, seagrasses and mangroves, are home to a diversity of marine organisms. These benthic habitats and their associated inhabitants provide many important ecosystem services to the community of St. John, such as fishing, tourism and shoreline protection. However, coral reef ecosystems throughout the U.S. Caribbean are under increasing pressure from environmental and anthropogenic stressors that threaten to destroy the natural heritage of these marine habitats. Mapping of benthic habitats is an integral component of any effective ecosystem-based management approach. Through the implementation of a multi-year interagency agreement, NOAA’s Center for Coastal Monitoring and Assessment - Biogeography Branch and the U.S. National Park Service (NPS) have completed benthic habitat mapping, field validation and accuracy assessment of maps for the nearshore marine environment of St. John. This work is an expansion of ongoing mapping and monitoring efforts conducted by NOAA and NPS in the U.S. Caribbean and replaces previous NOAA maps generated by Kendall et al. (2001) for the waters around St. John. The use of standardized protocols enables the condition of the coral reef ecosystems around St. John to be evaluated in context to the rest of the Virgin Island Territories and other U.S. coral ecosystems. The products from this effort provide an accurate assessment of the abundance and distribution of marine habitats surrounding St. John to support more effective management and conservation of ocean resources within the National Park system. This report documents the entire process of benthic habitat mapping in St. John. Chapter 1 provides a description of the benthic habitat classification scheme used to categorize the different habitats existing in the nearshore environment. Chapter 2 describes the steps required to create a benthic habitat map from visual interpretation of remotely sensed imagery. Chapter 3 details the process of accuracy assessment and reports on the thematic accuracy of the final maps. Finally, Chapter 4 is a summary of the basic map content and compares the new maps to a previous NOAA effort. Benthic habitat maps of the nearshore marine environment of St. John, U.S. Virgin Islands were created by visual interpretation of remotely sensed imagery. Overhead imagery, including color orthophotography and IKONOS satellite imagery, proved to be an excellent source from which to visually interpret the location, extent and attributes of marine habitats. NOAA scientists were able to accurately and reliably delineate the boundaries of features on digital imagery using a Geographic Information System (GIS) and fi eld investigations. The St. John habitat classification scheme defined benthic communities on the basis of four primary coral reef ecosystem attributes: 1) broad geographic zone, 2) geomorphological structure type, 3) dominant biological cover, and 4) degree of live coral cover. Every feature in the benthic habitat map was assigned a designation at each level of the scheme. The ability to apply any component of this scheme was dependent on being able to identify and delineate a given feature in remotely sensed imagery.
Resumo:
The National Oceanic and Atmospheric Administration’s (NOAA) Center for Coastal Monitoring and Assessment’s (CCMA) Biogeography Branch and the U.S. National Park Service (NPS) have completed mapping the moderate-depth marine environment south of St. John. This work is an expansion of ongoing mapping and monitoring efforts conducted by NOAA and NPS in the U.S. Caribbean. The standardized protocols used in this effort will enable scientists and managers to quantitatively compare moderate-depth coral reef ecosystems around St. John to those throughout the U.S. Territories. These protocols and products will also help support the effective management and conservation of the marine resources within the National Park system.
Resumo:
The distribution of pantothenic acid in free and bound forms in various fish species is reported. It is observed that the fish muscle contains on an average about 12.0µ g pantothenic acid per g. About 60% of the pantothenic acid is present in the bound form as coenzyme A in the fish skeletal muscle.
Resumo:
Tracking applications provide real time on-site information that can be used to detect travel path conflicts, calculate crew productivity and eliminate unnecessary processes at the site. This paper presents the validation of a novel vision based tracking methodology at the Egnatia Odos Motorway in Thessaloniki, Greece. Egnatia Odos is a motorway that connects Turkey with Italy through Greece. Its multiple open construction sites serves as an ideal multi-site test bed for validating construction site tracking methods. The vision based tracking methodology uses video cameras and computer algorithms to calculate the 3D position of project related entities (e.g. personnel, materials and equipment) in construction sites. The approach provides an unobtrusive, inexpensive way of effectively identifying and tracking the 3D location of entities. The process followed in this study starts by acquiring video data from multiple synchronous cameras at several large scale project sites of Egnatia Odos, such as tunnels, interchanges and bridges under construction. Subsequent steps include the evaluation of the collected data and finally, performing the 3D tracking operations on selected entities (heavy equipment and personnel). The accuracy and precision of the method's results is evaluated by comparing it with the actual 3D position of the object, thus assessing the 3D tracking method's effectiveness.
Resumo:
Vision-based object detection has been introduced in construction for recognizing and locating construction entities in on-site camera views. It can provide spatial locations of a large number of entities, which is beneficial in large-scale, congested construction sites. However, even a few false detections prevent its practical applications. In resolving this issue, this paper presents a novel hybrid method for locating construction equipment that fuses the function of detection and tracking algorithms. This method detects construction equipment in the video view by taking advantage of entities' motion, shape, and color distribution. Background subtraction, Haar-like features, and eigen-images are used for motion, shape, and color information, respectively. A tracking algorithm steps in the process to make up for the false detections. False detections are identified by catching drastic changes in object size and appearance. The identified false detections are replaced with tracking results. Preliminary experiments show that the combination with tracking has the potential to enhance the detection performance.