890 resultados para Tchebyshev metrics
Resumo:
Wireless sensor networks monitor their surrounding environment for the occurrence of some anticipated phenomenon. Most of the research related to sensor networks considers the static deployment of sensor nodes. Mobility of sensor node can be considered as an extra dimension of complexity, which poses interesting and challenging problems. Node mobility is a very important aspect in the design of effective routing algorithm for mobile wireless networks. In this work we intent to present the impact of different mobility models on the performance of the wireless sensor networks. Routing characteristics of various routing protocols for ad-hoc network were studied considering different mobility models. Performance metrics such as end-to-end delay, throughput and routing load were considered and their variations in the case of mobility models like Freeway, RPGM were studied. This work will be useful to figure out the characteristics of routing protocols depending on the mobility patterns of sensors
Resumo:
In Statistical Machine Translation from English to Malayalam, an unseen English sentence is translated into its equivalent Malayalam translation using statistical models like translation model, language model and a decoder. A parallel corpus of English-Malayalam is used in the training phase. Word to word alignments has to be set up among the sentence pairs of the source and target language before subjecting them for training. This paper is deals with the techniques which can be adopted for improving the alignment model of SMT. Incorporating the parts of speech information into the bilingual corpus has eliminated many of the insignificant alignments. Also identifying the name entities and cognates present in the sentence pairs has proved to be advantageous while setting up the alignments. Moreover, reduction of the unwanted alignments has brought in better training results. Experiments conducted on a sample corpus have generated reasonably good Malayalam translations and the results are verified with F measure, BLEU and WER evaluation metrics
Resumo:
In recent years there is an apparent shift in research from content based image retrieval (CBIR) to automatic image annotation in order to bridge the gap between low level features and high level semantics of images. Automatic Image Annotation (AIA) techniques facilitate extraction of high level semantic concepts from images by machine learning techniques. Many AIA techniques use feature analysis as the first step to identify the objects in the image. However, the high dimensional image features make the performance of the system worse. This paper describes and evaluates an automatic image annotation framework which uses SURF descriptors to select right number of features and right features for annotation. The proposed framework uses a hybrid approach in which k-means clustering is used in the training phase and fuzzy K-NN classification in the annotation phase. The performance of the system is evaluated using standard metrics.
Resumo:
“What is value in product development?” is the key question of this paper. The answer is critical to the creation of lean in product development. By knowing how much value is added by product development (PD) activities, decisions can be more rationally made about how to allocate resources, such as time and money. In order to apply the principles of Lean Thinking and remove waste from the product development system, value must be precisely defined. Unfortunately, value is a complex entity that is composed of many dimensions and has thus far eluded definition on a local level. For this reason, research has been initiated on “Measuring Value in Product Development.” This paper serves as an introduction to this research. It presents the current understanding of value in PD, the critical questions involved, and a specific research design to guide the development of a methodology for measuring value. Work in PD value currently focuses on either high-level perspectives on value, or detailed looks at the attributes that value might have locally in the PD process. Models that attempt to capture value in PD are reviewed. These methods, however, do not capture the depth necessary to allow for application. A methodology is needed to evaluate activities on a local level to determine the amount of value they add and their sensitivity with respect to performance, cost, time, and risk. Two conceptual tools are proposed. The first is a conceptual framework for value creation in PD, referred to here as the Value Creation Model. The second tool is the Value-Activity Map, which shows the relationships between specific activities and value attributes. These maps will allow a better understanding of the development of value in PD, will facilitate comparison of value development between separate projects, and will provide the information necessary to adapt process analysis tools (such as DSM) to consider value. The key questions that this research entails are: · What are the primary attributes of lifecycle value within PD? · How can one model the creation of value in a specific PD process? · Can a useful methodology be developed to quantify value in PD processes? · What are the tools necessary for application? · What PD metrics will be integrated with the necessary tools? The research milestones are: · Collection of value attributes and activities (September, 200) · Development of methodology of value-activity association (October, 2000) · Testing and refinement of the methodology (January, 2001) · Tool Development (March, 2001) · Present findings at July INCOSE conference (April, 2001) · Deliver thesis that captures a formalized methodology for defining value in PD (including LEM data sheets) (June, 2001) The research design aims for the development of two primary deliverables: a methodology to guide the incorporation of value, and a product development tool that will allow direct application.
Resumo:
Our essay aims at studying suitable statistical methods for the clustering of compositional data in situations where observations are constituted by trajectories of compositional data, that is, by sequences of composition measurements along a domain. Observed trajectories are known as “functional data” and several methods have been proposed for their analysis. In particular, methods for clustering functional data, known as Functional Cluster Analysis (FCA), have been applied by practitioners and scientists in many fields. To our knowledge, FCA techniques have not been extended to cope with the problem of clustering compositional data trajectories. In order to extend FCA techniques to the analysis of compositional data, FCA clustering techniques have to be adapted by using a suitable compositional algebra. The present work centres on the following question: given a sample of compositional data trajectories, how can we formulate a segmentation procedure giving homogeneous classes? To address this problem we follow the steps described below. First of all we adapt the well-known spline smoothing techniques in order to cope with the smoothing of compositional data trajectories. In fact, an observed curve can be thought of as the sum of a smooth part plus some noise due to measurement errors. Spline smoothing techniques are used to isolate the smooth part of the trajectory: clustering algorithms are then applied to these smooth curves. The second step consists in building suitable metrics for measuring the dissimilarity between trajectories: we propose a metric that accounts for difference in both shape and level, and a metric accounting for differences in shape only. A simulation study is performed in order to evaluate the proposed methodologies, using both hierarchical and partitional clustering algorithm. The quality of the obtained results is assessed by means of several indices
Resumo:
In this paper we examine the problem of compositional data from a different starting point. Chemical compositional data, as used in provenance studies on archaeological materials, will be approached from the measurement theory. The results will show, in a very intuitive way that chemical data can only be treated by using the approach developed for compositional data. It will be shown that compositional data analysis is a particular case in projective geometry, when the projective coordinates are in the positive orthant, and they have the properties of logarithmic interval metrics. Moreover, it will be shown that this approach can be extended to a very large number of applications, including shape analysis. This will be exemplified with a case study in architecture of Early Christian churches dated back to the 5th-7th centuries AD
Resumo:
Sobre la base del estudio de esquemas de comunicación asincrónicos, el presente artículo propone un framework basado en servicios web para la recuperación de documentación educativa en forma colaborativa en ambientes distribuidos, y más concretamente 1) propone describir explícitamente la intención de los mensajes entre procesos utilizando para ello performatives del estándar FIPA, y sobre la base de dicha descripción 2) presenta un conjunto de métricas que evalúan la gestión de la información y 3) define dos algoritmos que mejoran la calidad del servicio del intercambio de información en función de la mejora del proceso de recuperación de documentación educativa.
Resumo:
A project to identify metrics for assessing the quality of open data based on the needs of small voluntary sector organisations in the UK and India. For this project we assumed the purpose of open data metrics is to determine the value of a group of open datasets to a defined community of users. We adopted a much more user-centred approach than most open data research using small structured workshops to identify users’ key problems and then working from those problems to understand how open data can help address them and the key attributes of the data if it is to be successful. We then piloted different metrics that might be used to measure the presence of those attributes. The result was six metrics that we assessed for validity, reliability, discrimination, transferability and comparability. This user-centred approach to open data research highlighted some fundamental issues with expanding the use of open data from its enthusiast base.
Resumo:
La liberalización colombiana es analizada, con frecuencia, con los coeficientes de apertura, este documento, en cambio, presenta un análisis complementario a través de algoritmos usados en la teoría de redes para caracterizar sistemas complejos. Esta nueva aproximación devela estructuras de la red mundial de comercio antes y después de la apertura, así como cambios en la posición colombiana.
Resumo:
La perforación del apéndice es una complicación temprana de la apendicitis aguda, demoras en el diagnóstico o tratamiento incrementan la tasa de perforación. Se desconoce si la perforación dl apéndice es un reflejo de inequidades sociales. Se pretendió determinar la asociación de la apendicitis aguda perforada en adultos y la equidad en acceso a salud. Estudio tipo cohorte retrospectivo documental, de historias clínicas de pacientes con apendicitis aguda; el análisis se realizó con Stata 11.1 y Epi-info. Los resultados se presentaron en tablas y figuras. Se incluyeron 540 casos (292 hombre y 248 mujeres), el grupo de edad que aporto más datos fue el de 18 a 49 años (391 pacientes); el tiempo medio de síntomas a consulta fue de 37,45 horas, y de 5,3 horas para el paso a cirugía desde el ingreso, fueron solicitadas 76 ecografías y 53 tomografías, 50 interconsultas a urología y 10 a ginecología hasta el diagnostico. El grupo de mayores de 49 años, el estrato socioeconómico tres y la tomografía fueron factores de riesgo independientes para perforación del apéndice. El análisis multivariado mostró asociación lineal entre el estrato socioeconómico y tiempo de síntomas al ingreso, tiempo para paso a cirugía, solicitud de ayudas diagnósticas e interconsultas, con buena significación estadística. La apendicitis aguda perforada en adultos, podría ser un indicador de inequidad en salud. Se requiere de estudios multi-céntricos, con mayor tiempo de evaluación y muestra para demostrar si el apéndice perforado es un trazador de inequidades en salud en Colombia.
Resumo:
Objetivo: determinar parámetros biométricos para evaluación y diagnóstico de pacientes con SAHOS por medio de Cefalometría Tridimensional y reconstrucción Multiplanar escanográfica. Materiales y Métodos: se realizó estudio observacional tipo cross-sectional, con 25 pacientes diagnosticados con SAHOS, a los cuales se les hizo TAC simple de cara con reconstrucción multiplanar y tridimensional, evaluando volumen de vía aérea, longitud, promedio del área en corte transversal, área retropalatal, área reglosal, espacio retrogloso lateral y anteroposterior. Resultados: se incluyeron 25 pacientes y realizaron medidas de volumen, longitud, promedio del área en corte transversal, área retropalatal, área retroglosal y espacios regloso lateral y anteroposterior, realizando análisis estadístico mediante el programa SPSS 17.0 reportando medidas de tendencia central como promedio, media, moda, rango, desviación estándar, y concordancia inter e intra observador. Conclusión: la Cefalometría tridimensional con reconstrucción multiplanar ha mostrado ser un excelente método de evaluación de vía aérea en pacientes con SAHOS, obteniendo propias clasificaciones dentro del estudio de estos pacientes. Sin embargo, ante la escasa literatura y difícil obtención de parámetros de referencia es necesario promover el estudio y la investigación de este método diagnostico en pacientes con SAHOS.
Resumo:
En el presente trabajo se pretende mostrar un estudio realizado a dos compañías colombianas, dicho estudio tiene como finalidad establecer aquellos procesos en los que el desempeño de las organizaciones es alto en cuanto al manejo de sus cadenas de suministro se refiere; para ello se ha realizado un análisis de datos resultantes del Balance General y Estado de Resultados de las empresas escogidas, mediante el uso del modelo SCOR® V.10. y de determinadas métricas del mismo. Con base en éstos resultados se espera llevar a cabo un BENCHMARKING con el fin de establecer cuáles son los procesos competitivos y aquellos débiles de cada una de las empresas, para que éstas puedan determinar en qué procesos deben mejorar y de esta forma aumentar su productividad. Este trabajo de grado, busca ser un punto de referencia para el medio empresarial colombiano y una herramienta útil a la hora de evaluar la forma en la que las organizaciones se están desarrollando, los procesos a mejorar y la manera en la que dichas reformas (en pro del desempeño superior de las compañías) pueden afectar el crecimiento empresarial.
Resumo:
El criterio con el que se juzga actualmente en nuestro país la gestión empresarial parte del punto del logro de resultados contables, mas no es tenido en cuenta el obtener resultados económicos, que le garanticen al accionista un resultado
Resumo:
En este proyecto analizaremos como las organizaciones se relacionan con el medio y marketing. La idea es determinar cuáles son los métodos de análisis de las comunidades de clientes mediante la relación estratégica comunitaria y el marketing. Por medio del mercadeo se puede conocer el entorno y determinar qué métodos de análisis utilizar para conocer a la comunidad de clientes. Las personas de mercadeo se ocupan de todo lo que ocurre en el entorno, de estar al tanto para saber cuándo hay oportunidades que puedan ser provechosas para la organización o por otro lado cuando hay amenazas de las que debe tener cuidado. Dependiendo del entorno, la organización diseña sus actividades de mercadeo enfocadas en satisfacer las necesidades del consumidor. Las actividades del consumidor se conceptualizan en producto, precio, promoción y plaza que se definen y diseñan basados en la comunidad en la que este inmersa la organización. Es importante buscar información confiable sobre el grupo objetivo al cual se le va ofrecer el producto o servicio, ya que toca analizarlos y comprender a estas personas para diseñar una buena oferta que satisfaga sus necesidades y deseos. Esta persona que recibe el producto o servicio por parte de la organización es el cliente. Los clientes son las personas que llegan a una organización en búsqueda de satisfacer necesidades a través de los bienes y servicios que las empresas ofrecen. Es esencial determinar que los clientes viven en comunidad, es decir comparten ideas por la comunicación tan estrecha que tienen y viven en conjunto bajo las mismas costumbres. Debido a estos es que hoy en día, los consumidores se conglomeran en comunidades de clientes, y para saberles llegar a estos clientes, toca analizarlos por medio de diversos métodos. El uso de las estrategias comunitarias es necesario ya que por medio del marketing se analiza el entorno y se buscan los métodos para analizar a la comunidad de clientes, que comparten características y se analizan en conjunto no por individuo. Es necesario identificar los métodos para relacionarse con la comunidad de clientes, para poder acercarnos a estos y conocerlos bien, saber sus necesidades y deseos y ofrecerles productos y servicios de acuerdo a éstos. En la actualidad estos métodos no son muy comunes ni conocidos, es por esto que nuestro propósito es indagar e identificar estos métodos para saber analizar a las comunidades. En este proyecto se utilizara una metodología de estudio tipo teórico-conceptual buscando las fuentes de información necesarias para llevar a cabo nuestra investigación. Se considera trabajar con El Grupo de Investigación en Perdurabilidad Empresarial y se escogió la línea de gerencia ya que permite entrar en la sociedad del conocimiento, siendo capaces de identificar oportunidades gerenciales en el entorno. Es interesante investigar sobre estos métodos, ya que los clientes esperan un servicio excelente, atento y que se preocupe por ellos y sus necesidades.
Resumo:
El presente trabajo de investigación fue realizado con el propósito de modelar el proceso de percepción de marca a partir del análisis de los componentes provenientes de la marca “Bodytech”, esto con el fin de simular el proceso de percepción de marca y evaluar la efectividad de la misma. El proceso que se modela es el de percepción – razonamiento – acción y se hace con el fin de evaluar los gastos en cada uno de los “componentes” que antes mencionaron Para realizar el análisis se hizo uso de un sistema de simulación basada en agentes, el cual recibe valores de diferentes variables analizadas por medio de tres herramientas: (1) un diagrama de grupos poblacionales, (2) un diagrama de desagregación de los núcleos temáticos de la marca y (3) las conclusiones obtenidas de una entrevista que se realizó a los responsables de gestionar la marca. Dicho proceso se lleva a cabo con el fin de poder determinar los valores relacionados al gasto en cada uno de los núcleos temáticos que llevan al sistema a evaluar la percepción de marca y la efectividad de estos gastos. Posteriormente, basados en los resultados del sistema de simulación, se obtiene un escenario que puede ser entendido y parcialmente predicho que le permitirán a Bodytech tener una herramienta de valoración de percepción de su marca.