918 resultados para Points and lines
Resumo:
Recent player tracking technology provides new information about basketball game performance. The aim of this study was to (i) compare the game performances of all-star and non all-star basketball players from the National Basketball Association (NBA), and (ii) describe the different basketball game performance profiles based on the different game roles. Archival data were obtained from all 2013-2014 regular season games (n = 1230). The variables analyzed included the points per game, minutes played and the game actions recorded by the player tracking system. To accomplish the first aim, the performance per minute of play was analyzed using a descriptive discriminant analysis to identify which variables best predict the all-star and non all-star playing categories. The all-star players showed slower velocities in defense and performed better in elbow touches, defensive rebounds, close touches, close points and pull-up points, possibly due to optimized attention processes that are key for perceiving the required appropriate environmental information. The second aim was addressed using a k-means cluster analysis, with the aim of creating maximal different performance profile groupings. Afterwards, a descriptive discriminant analysis identified which variables best predict the different playing clusters. The results identified different playing profile of performers, particularly related to the game roles of scoring, passing, defensive and all-round game behavior. Coaching staffs may apply this information to different players, while accounting for individual differences and functional variability, to optimize practice planning and, consequently, the game performances of individuals and teams.
Resumo:
Uma dedução dos critérios de multicriticalidade para o cálculo de pontos críticos de qualquer ordem representa a formalização de ideias utilizadas para calcular pontos críticos e tricríticos e ainda amplia tais ideias. De posse desta dedução pode-se compreender os critérios de tricriticalidade e, com isso, através de uma abordagem via problema de otimização global pode-se fazer o cálculo de pontos tricríticos utilizando um método numérico adequado de otimização global. Para evitar um excesso de custo computacional com rotinas numéricas utilizou-se aproximações na forma de diferenças finitas dos termos que compõem a função objetivo. Para simular a relação P v - T optou-se pela equação de estado cúbica de Peng-Robinson e pela regra clássica de fluidos de van der Vaals, para modelagem do problema também se calculou os tensores de ordem 2, 3, 4 e 5 da função do teste de estabilidade. Os resultados obtidos foram comparados com dados experimentais e por resultados obtidos com outros autores que utilizaram métodos numéricos, equação de estado ou abordagem diferente das utilizadas neste trabalho.
Resumo:
Many modern stock assessment methods provide the machinery for determining the status of a stock in relation to certain reference points and for estimating how quickly a stock can be rebuilt. However, these methods typically require catch data, which are not always available. We introduce a model-based framework for estimating reference points, stock status, and recovery times in situations where catch data and other measures of absolute abundance are unavailable. The specif ic estimator developed is essentially an age-structured production model recast in terms relative to pre-exploitation levels. A Bayesian estimation scheme is adopted to allow the incorporation of pertinent auxiliary information such as might be obtained from meta-analyses of similar stocks or anecdotal observations. The approach is applied to the population of goliath grouper (Epinephelus itajara) off southern Florida, for which there are three indices of relative abundance but no reliable catch data. The results confirm anecdotal accounts of a marked decline in abundance during the 1980s followed by a substantial increase after the harvest of goliath grouper was banned in 1990. The ban appears to have reduced fishing pressure to between 10% and 50% of the levels observed during the 1980s. Nevertheless, the predicted fishing mortality rate under the ban appears to remain substantial, perhaps owing to illegal harvest and depth-related release mortality. As a result, the base model predicts that there is less than a 40% chance that the spawning biomass will recover to a level that would produce a 50% spawning potential ratio.
Resumo:
Este trabalho visa analisar as implicações da Lei n. 12.690 de 2012 para as cooperativas de trabalho em relação à situação organizacional, socioeconômica e às condições gerais de trabalho, em particular, no caso das cooperativas de catadores de material recicláveis. A pesquisa tem caráter exploratório e qualitativo. Como procedimento, adotou-se a revisão da literatura, complementada com entrevistas dirigidas às lideranças de cooperativas de catadores localizadas no Estado do Rio de Janeiro. É inegável que esta lei é um marco para os trabalhadores de cooperativas. Dentre outros, ela visa regulamentar os aspectos socioeconômicos da organização e propiciar garantias mínimas nas relações de trabalho, tais como: número mínimo de sete trabalhadores para abrir uma cooperativa; retirada de um salário mínimo mensal; remuneração do trabalho noturno superior à do diurno; duração do trabalho não superior a oito horas diárias e 44 horas semanais; repouso semanal remunerado; além de estabelecer em assembleia, os fundos para possibilitar outros direitos dos sócios, dentre eles a saúde e segurança no trabalho. O estudo concluiu que considerável parte dos entrevistados desconhece a referida lei e que o fator econômico é um dos aspectos de maior impacto na sua aplicação. Contudo, eles poderão ser superados com a efetividade das políticas públicas a fim de compensar os custos adicionais que terão as cooperativas com a aplicação desta lei. Recomenda-se a implantação de programas municipais de coleta seletiva de resíduos com a participação ativa dos catadores, como determina a Política Nacional de Resíduos Sólidos, sendo fundamental o envolvimento de todos os setores da sociedade. Além disso, que a nova lei das cooperativas de trabalho seja mais divulgada e debatida com os setores interessados. Deve-se aperfeiçoar os programas dirigidos às cooperativas de catadores, com maior incentivo à reciclagem, através da redução ou isenção dos impostos para as atividades de reciclagem e dos materiais reciclados, por exemplo. Nas áreas de saúde e segurança do trabalho, é importante a criação de normas específicas para esta categoria de trabalhadores em conformidade com a sua realidade. Espera-se que a pesquisa contribua para a melhor aplicação prática da lei analisada nas cooperativas. Como proposta de estudos futuros, sugere-se a criação de indicadores para o monitoramento da aplicação da Lei n. 12.690 de 2012 após a sua regulamentação, os quais poderão ser utilizados com a finalidade de garantir a melhoria contínua e fortalecer as cooperativas de trabalho, em particular, as de catadores de materiais recicláveis.
Resumo:
A propriedade de auto-cura, em redes inteligente de distribuição de energia elétrica, consiste em encontrar uma proposta de reconfiguração do sistema de distribuição com o objetivo de recuperar parcial ou totalmente o fornecimento de energia aos clientes da rede, na ocorrência de uma falha na rede que comprometa o fornecimento. A busca por uma solução satisfatória é um problema combinacional cuja complexidade está ligada ao tamanho da rede. Um método de busca exaustiva se torna um processo muito demorado e muitas vezes computacionalmente inviável. Para superar essa dificuldade, pode-se basear nas técnicas de geração de árvores de extensão mínima do grafo, representando a rede de distribuição. Porém, a maioria dos estudos encontrados nesta área são implementações centralizadas, onde proposta de reconfiguração é obtida por um sistema de supervisão central. Nesta dissertação, propõe-se uma implementação distribuída, onde cada chave da rede colabora na elaboração da proposta de reconfiguração. A solução descentralizada busca uma redução no tempo de reconfiguração da rede em caso de falhas simples ou múltiplas, aumentando assim a inteligência da rede. Para isso, o algoritmo distribuído GHS é utilizado como base na elaboração de uma solução de auto-cura a ser embarcada nos elementos processadores que compõem as chaves de comutação das linhas da rede inteligente de distribuição. A solução proposta é implementada utilizando robôs como unidades de processamento que se comunicam via uma mesma rede, constituindo assim um ambiente de processamento distribuído. Os diferentes estudos de casos testados mostram que, para redes inteligentes de distribuição compostas por um único alimentador, a solução proposta obteve sucesso na reconfiguração da rede, indiferentemente do número de falhas simultâneas. Na implementação proposta, o tempo de reconfiguração da rede não depende do número de linhas nela incluídas. A implementação apresentou resultados de custo de comunicação e tempo dentro dos limites teóricos estabelecidos pelo algoritmo GHS.
Resumo:
O objetivo deste trabalho é contribuir com o desenvolvimento de uma técnica baseada em sistemas inteligentes que possibilite a localização exata ou aproximada do ponto de origem de uma Variação de Tensão de Curta Duração (VTCD) (gerada por uma falta) em um sistema de distribuição de energia elétrica. Este trabalho utiliza um Phase-Locked Loop (PLL) com o intuito de detectar as faltas. Uma vez que a falta é detectada, os sinais de tensão obtidos durante a falta são decompostos em componentes simétricas instantâneas por meio do método proposto. Em seguida, as energias das componentes simétricas são calculadas e utilizadas para estimar a localização da falta. Nesta pesquisa, são avaliadas duas estruturas baseadas em Redes Neurais Artificiais (RNAs). A primeira é projetada para classificar a localização da falta em um dos pontos possíveis e a segunda é projetada para estimar a distância da falta ao alimentador. A técnica aqui proposta aplica-se a alimentadores trifásicos com cargas equilibradas. No desenvolvimento da mesma, considera-se que há disponibilidade de medições de tensões no nó inicial do alimentador e também em pontos esparsos ao longo da rede de distribuição. O banco de dados empregado foi obtido através de simulações de um modelo de alimentador radial usando o programa PSCAD/EMTDC. Testes de sensibilidade empregando validação-cruzada são realizados em ambas as arquiteturas de redes neurais com o intuito de verificar a confiabilidade dos resultados obtidos. Adicionalmente foram realizados testes com faltas não inicialmente contidas no banco de dados a fim de se verificar a capacidade de generalização das redes. Os desempenhos de ambas as arquiteturas de redes neurais foram satisfatórios e demonstram a viabilidade das técnicas propostas para realizar a localização de faltas em redes de distribuição.
Resumo:
We have developed a novel human facial tracking system that operates in real time at a video frame rate without needing any special hardware. The approach is based on the use of Lie algebra, and uses three-dimensional feature points on the targeted human face. It is assumed that the roughly estimated facial model (relative coordinates of the three-dimensional feature points) is known. First, the initial feature positions of the face are determined using a model fitting technique. Then, the tracking is operated by the following sequence: (1) capture the new video frame and render feature points to the image plane; (2) search for new positions of the feature points on the image plane; (3) get the Euclidean matrix from the moving vector and the three-dimensional information for the points; and (4) rotate and translate the feature points by using the Euclidean matrix, and render the new points on the image plane. The key algorithm of this tracker is to estimate the Euclidean matrix by using a least square technique based on Lie algebra. The resulting tracker performed very well on the task of tracking a human face.
Resumo:
The industrial landscape is becoming increasingly complex and dynamic, with innovative technologies stimulating the emergence of new industries and business models. This paper presents a preliminary framework for mapping industrial emergence, based on roadmapping principles, in order to understand the nature and characteristics of such phenomena. The focus at this stage is on historical examples of industrial emergence, with the preliminary framework based on observations from 20 'quick scan' maps, one of which is used to illustrate the framework. The learning from these historical cases, combined with further industrial consultation and literature review, will be used to develop practical methods for strategy and policy application. The paper concludes by summarising key learning points and further work needed to achieve these outcomes. © 2009 PICMET.
Resumo:
Successful innovation requires effective communication within and between technical and nontechnical communities, which can be challenging due to different educational backgrounds, experience, perceptions, and attitudes. Roadmapping has emerged as a method that can enable effective dialogue between these groups, and the way in which information is structured is a key feature that enables this communication. This is an area that has not received much attention in the literature, and this article seeks to address this gap by describing in detail the structures that have been successfully applied in roadmapping workshops and processes, from which key learning points and future research directions are identified.
Resumo:
A multi-dimensional combustion code implementing the Conditional Moment Closure turbulent combustion model interfaced with a well-established RANS two- phase flow field solver has been employed to study a broad range of operating conditions for a heavy duty direct-injection common-rail Diesel engine. These conditions include different loads (25%, 50%, 75% and full load) and engine speeds (1250 and 1830 RPM) and, with respect to the fuel path, different injection timings and rail pressures. A total of nine cases have been simulated. Excellent agreement with experimental data has been found for the pressure traces and the heat release rates, without adjusting any model constants. The chemical mechanism used contains a detailed NOx sub-mechanism. The predicted emissions agree reasonably well with the experimental data considering the range of operating points and given no adjustments of any rate constants have been employed. In an effort to identify CPU cost reduction potential, various dimensionality reduction strategies have been assessed. Furthermore, the sensitivity of the predictions with respect to resolution in particular relating to the CMC grid has been investigated. Overall, the results suggest that the presented modelling strategy has considerable predictive capability concerning Diesel engine combustion without requiring model constant calibration based on experimental data. This is true particularly for the heat release rates predictions and, to a lesser extent, for NOx emissions where further progress is still necessary. © 2009 SAE International.
Resumo:
OVERVIEW: The importance of the chief technology officer role is widely accepted, particularly in today's turbulent, global conditions. However, not enough is known about the key activities of CTOs or the factors that influence their priorities. Thirty in-depth interviews conducted with the CTOs in global firms identified key activities: aligning technology and corporate strategy and business models, determining technology entry and exit points, and preparing business cases to secure funding for technology development. The research also showed that priority areas for CTOs are related to technology transition points-major contextual and business discontinuities that impact the focus of the CTO. We conclude that the determination of priorities at these technology transition points is highly idiosyncratic and closely related to whether the CTO functions more or less strategically.
Resumo:
The aim of this paper is to investigate the effects of the size of the exhaust inlet on the fluid flow patterns created by an Aaberg exhaust hood. Streamlines and lines of constant speed modelling those created by an Aaberg hood are used to examine the effect of the inlet size on the size and profile of the hood's effective suction area. © 1992.
Resumo:
In this paper a study of the air flow pattern created by a two-dimensional Aaberg exhaust hood local ventilation system is presented. A mathematical model of the flow, in terms of the stream function ψ, is derived analytically for both laminar and turbulent injections of fluid. Streamlines and lines of constant speed deduced from the model are examined for various values of the governing dimensionless operating parameter and predictions are given as to the area in front of the hood from which the air can be sampled. The effect of the injection of fluid on the centre-line velocity of the flow is examined and a comparison of the results with the available experimental data is given. © 1992.
Resumo:
Recent studies in mammals have revealed that the cyanobacterial toxin MC-LR suppresses immune functions. Nevertheless, immunotoxic effects of microcystins have been little studied in fish. In this paper, we present the profiles of the immune modulation of MC-LR in grass carp, and quantitative real-time PCR methodology was developed for the measurement of relative transcription changes of six immune-related genes in the spleen and head kidney of the grass carp Ctenopharyngodon idella, which were intraperitoneally injected with 50 mu g MC-LR center dot kg(-1) body weight in a three-week period. This study was focused exclusively on gene transcription level changes at different time points after MC-LR exposure, so, only one dose was given. The investigated genes were interleukin-1 beta (IL-1 beta), tumor necrosis factor-alpha (TNF-alpha), type I interferon (Type I IFN), peptidoglycan recognition protein-L (PGRP-L), immunoglobulin M (IgM) and major histocompatibility complex class I (MHC-I) genes. The results demonstrated that the transcription levels of the TNF-alpha, type I IFN, and PGRP-L genes in the spleen and head kidney were significantly low at all time points, and those of IL-1 beta were significantly low in the head kidney at different time points. In addition, IgM and MHC-I transcription levels were only significantly low in the spleen and head kidney at 21 d postinjection. The changes in the transcription levels of immune-related genes induced by MC-LR confirmed its effect on inhibiting immune function at the transcription level.
Resumo:
McCullagh and Yang (2006) suggest a family of classification algorithms based on Cox processes. We further investigate the log Gaussian variant which has a number of appealing properties. Conditioned on the covariates, the distribution over labels is given by a type of conditional Markov random field. In the supervised case, computation of the predictive probability of a single test point scales linearly with the number of training points and the multiclass generalization is straightforward. We show new links between the supervised method and classical nonparametric methods. We give a detailed analysis of the pairwise graph representable Markov random field, which we use to extend the model to semi-supervised learning problems, and propose an inference method based on graph min-cuts. We give the first experimental analysis on supervised and semi-supervised datasets and show good empirical performance.