891 resultados para One-Way Function (OWF)
Resumo:
As the number of resources on the web exceeds by far the number of documents one can track, it becomes increasingly difficult to remain up to date on ones own areas of interest. The problem becomes more severe with the increasing fraction of multimedia data, from which it is difficult to extract some conceptual description of their contents. One way to overcome this problem are social bookmark tools, which are rapidly emerging on the web. In such systems, users are setting up lightweight conceptual structures called folksonomies, and overcome thus the knowledge acquisition bottleneck. As more and more people participate in the effort, the use of a common vocabulary becomes more and more stable. We present an approach for discovering topic-specific trends within folksonomies. It is based on a differential adaptation of the PageRank algorithm to the triadic hypergraph structure of a folksonomy. The approach allows for any kind of data, as it does not rely on the internal structure of the documents. In particular, this allows to consider different data types in the same analysis step. We run experiments on a large-scale real-world snapshot of a social bookmarking system.
Resumo:
In der vorliegenden Dissertation werden Systeme von parallel arbeitenden und miteinander kommunizierenden Restart-Automaten (engl.: systems of parallel communicating restarting automata; abgekürzt PCRA-Systeme) vorgestellt und untersucht. Dabei werden zwei bekannte Konzepte aus den Bereichen Formale Sprachen und Automatentheorie miteinander vescrknüpft: das Modell der Restart-Automaten und die sogenannten PC-Systeme (systems of parallel communicating components). Ein PCRA-System besteht aus endlich vielen Restart-Automaten, welche einerseits parallel und unabhängig voneinander lokale Berechnungen durchführen und andererseits miteinander kommunizieren dürfen. Die Kommunikation erfolgt dabei durch ein festgelegtes Kommunikationsprotokoll, das mithilfe von speziellen Kommunikationszuständen realisiert wird. Ein wesentliches Merkmal hinsichtlich der Kommunikationsstruktur in Systemen von miteinander kooperierenden Komponenten ist, ob die Kommunikation zentralisiert oder nichtzentralisiert erfolgt. Während in einer nichtzentralisierten Kommunikationsstruktur jede Komponente mit jeder anderen Komponente kommunizieren darf, findet jegliche Kommunikation innerhalb einer zentralisierten Kommunikationsstruktur ausschließlich mit einer ausgewählten Master-Komponente statt. Eines der wichtigsten Resultate dieser Arbeit zeigt, dass zentralisierte Systeme und nichtzentralisierte Systeme die gleiche Berechnungsstärke besitzen (das ist im Allgemeinen bei PC-Systemen nicht so). Darüber hinaus bewirkt auch die Verwendung von Multicast- oder Broadcast-Kommunikationsansätzen neben Punkt-zu-Punkt-Kommunikationen keine Erhöhung der Berechnungsstärke. Desweiteren wird die Ausdrucksstärke von PCRA-Systemen untersucht und mit der von PC-Systemen von endlichen Automaten und mit der von Mehrkopfautomaten verglichen. PC-Systeme von endlichen Automaten besitzen bekanntermaßen die gleiche Ausdrucksstärke wie Einwegmehrkopfautomaten und bilden eine untere Schranke für die Ausdrucksstärke von PCRA-Systemen mit Einwegkomponenten. Tatsächlich sind PCRA-Systeme auch dann stärker als PC-Systeme von endlichen Automaten, wenn die Komponenten für sich genommen die gleiche Ausdrucksstärke besitzen, also die regulären Sprachen charakterisieren. Für PCRA-Systeme mit Zweiwegekomponenten werden als untere Schranke die Sprachklassen der Zweiwegemehrkopfautomaten im deterministischen und im nichtdeterministischen Fall gezeigt, welche wiederum den bekannten Komplexitätsklassen L (deterministisch logarithmischer Platz) und NL (nichtdeterministisch logarithmischer Platz) entsprechen. Als obere Schranke wird die Klasse der kontextsensitiven Sprachen gezeigt. Außerdem werden Erweiterungen von Restart-Automaten betrachtet (nonforgetting-Eigenschaft, shrinking-Eigenschaft), welche bei einzelnen Komponenten eine Erhöhung der Berechnungsstärke bewirken, in Systemen jedoch deren Stärke nicht erhöhen. Die von PCRA-Systemen charakterisierten Sprachklassen sind unter diversen Sprachoperationen abgeschlossen und einige Sprachklassen sind sogar abstrakte Sprachfamilien (sogenannte AFL's). Abschließend werden für PCRA-Systeme spezifische Probleme auf ihre Entscheidbarkeit hin untersucht. Es wird gezeigt, dass Leerheit, Universalität, Inklusion, Gleichheit und Endlichkeit bereits für Systeme mit zwei Restart-Automaten des schwächsten Typs nicht semientscheidbar sind. Für das Wortproblem wird gezeigt, dass es im deterministischen Fall in quadratischer Zeit und im nichtdeterministischen Fall in exponentieller Zeit entscheidbar ist.
Resumo:
In dieser Arbeit wird ein Verfahren zum Einsatz neuronaler Netzwerke vorgestellt, das auf iterative Weise Klassifikation und Prognoseschritte mit dem Ziel kombiniert, bessere Ergebnisse der Prognose im Vergleich zu einer einmaligen hintereinander Ausführung dieser Schritte zu erreichen. Dieses Verfahren wird am Beispiel der Prognose der Windstromerzeugung abhängig von der Wettersituation erörtert. Eine Verbesserung wird in diesem Rahmen mit einzelnen Ausreißern erreicht. Verschiedene Aspekte werden in drei Kapiteln diskutiert: In Kapitel 1 werden die verwendeten Daten und ihre elektronische Verarbeitung vorgestellt. Die Daten bestehen zum einen aus Windleistungshochrechnungen für die Bundesrepublik Deutschland der Jahre 2011 und 2012, welche als Transparenzanforderung des Erneuerbaren Energiegesetzes durch die Übertragungsnetzbetreiber publiziert werden müssen. Zum anderen werden Wetterprognosen, die der Deutsche Wetterdienst im Rahmen der Grundversorgung kostenlos bereitstellt, verwendet. Kapitel 2 erläutert zwei aus der Literatur bekannte Verfahren - Online- und Batchalgorithmus - zum Training einer selbstorganisierenden Karte. Aus den dargelegten Verfahrenseigenschaften begründet sich die Wahl des Batchverfahrens für die in Kapitel 3 erläuterte Methode. Das in Kapitel 3 vorgestellte Verfahren hat im modellierten operativen Einsatz den gleichen Ablauf, wie eine Klassifikation mit anschließender klassenspezifischer Prognose. Bei dem Training des Verfahrens wird allerdings iterativ vorgegangen, indem im Anschluss an das Training der klassenspezifischen Prognose ermittelt wird, zu welcher Klasse der Klassifikation ein Eingabedatum gehören sollte, um mit den vorliegenden klassenspezifischen Prognosemodellen die höchste Prognosegüte zu erzielen. Die so gewonnene Einteilung der Eingaben kann genutzt werden, um wiederum eine neue Klassifikationsstufe zu trainieren, deren Klassen eine verbesserte klassenspezifisch Prognose ermöglichen.
Resumo:
Agriculture in semi-arid and arid regions is constantly gaining importance for the security of the nutrition of humankind because of the rapid population growth. At the same time, especially these regions are more and more endangered by soil degradation, limited resources and extreme climatic conditions. One way to retain soil fertility under these conditions in the long run is to increase the soil organic matter. Thus, a two-year field experiment was conducted to test the efficiency of activated charcoal and quebracho tannin extract as stabilizers of soil organic matter on a sandy soil low in nutrients in Northern Oman. Both activated charcoal and quebracho tannin extract were either fed to goats and after defecation applied to the soil or directly applied to the soil in combination with dried goat manure. Regardless of the application method, both additives reduced decomposition of soil-applied organic matter and thus stabilized and increased soil organic carbon. The nutrient release from goat manure was altered by the application of activated charcoal and quebracho tannin extract as well, however, nutrient release was not always slowed down. While activated charcoal fed to goats, was more effective in stabilising soil organic matter and in reducing nutrient release than mixing it, for quebracho tannin extract the opposite was the case. Moreover, the efficiency of the additives was influenced by the cultivated crop (sweet corn and radish), leading to unexplained interactions. The reduced nutrient release caused by the stabilization of the organic matter might be the reason for the reduced yields for sweet corn caused by the application of manure amended with activated charcoal and quebracho tannin extract. Radish, on the other hand, was only inhibited by the presence of quebracho tannin extract but not by activated charcoal. This might be caused by a possible allelopathic effect of tannins on crops. To understand the mechanisms behind the changes in manure, in the soil, in the mineralisation and the plant development and to resolve detrimental effects, further research as recommended in this dissertation is necessary. Particularly in developing countries poor in resources and capital, feeding charcoal or tannins to animals and using their faeces as manure may be promising to increase soil fertility, sequester carbon and reduce nutrient losses, when yield reductions can be resolved.
Resumo:
Scheduling tasks to efficiently use the available processor resources is crucial to minimizing the runtime of applications on shared-memory parallel processors. One factor that contributes to poor processor utilization is the idle time caused by long latency operations, such as remote memory references or processor synchronization operations. One way of tolerating this latency is to use a processor with multiple hardware contexts that can rapidly switch to executing another thread of computation whenever a long latency operation occurs, thus increasing processor utilization by overlapping computation with communication. Although multiple contexts are effective for tolerating latency, this effectiveness can be limited by memory and network bandwidth, by cache interference effects among the multiple contexts, and by critical tasks sharing processor resources with less critical tasks. This thesis presents techniques that increase the effectiveness of multiple contexts by intelligently scheduling threads to make more efficient use of processor pipeline, bandwidth, and cache resources. This thesis proposes thread prioritization as a fundamental mechanism for directing the thread schedule on a multiple-context processor. A priority is assigned to each thread either statically or dynamically and is used by the thread scheduler to decide which threads to load in the contexts, and to decide which context to switch to on a context switch. We develop a multiple-context model that integrates both cache and network effects, and shows how thread prioritization can both maintain high processor utilization, and limit increases in critical path runtime caused by multithreading. The model also shows that in order to be effective in bandwidth limited applications, thread prioritization must be extended to prioritize memory requests. We show how simple hardware can prioritize the running of threads in the multiple contexts, and the issuing of requests to both the local memory and the network. Simulation experiments show how thread prioritization is used in a variety of applications. Thread prioritization can improve the performance of synchronization primitives by minimizing the number of processor cycles wasted in spinning and devoting more cycles to critical threads. Thread prioritization can be used in combination with other techniques to improve cache performance and minimize cache interference between different working sets in the cache. For applications that are critical path limited, thread prioritization can improve performance by allowing processor resources to be devoted preferentially to critical threads. These experimental results show that thread prioritization is a mechanism that can be used to implement a wide range of scheduling policies.
Resumo:
The image comparison operation ??sessing how well one image matches another ??rms a critical component of many image analysis systems and models of human visual processing. Two norms used commonly for this purpose are L1 and L2, which are specific instances of the Minkowski metric. However, there is often not a principled reason for selecting one norm over the other. One way to address this problem is by examining whether one metric better captures the perceptual notion of image similarity than the other. With this goal, we examined perceptual preferences for images retrieved on the basis of the L1 versus the L2 norm. These images were either small fragments without recognizable content, or larger patterns with recognizable content created via vector quantization. In both conditions the subjects showed a consistent preference for images matched using the L1 metric. These results suggest that, in the domain of natural images of the kind we have used, the L1 metric may better capture human notions of image similarity.
Resumo:
Several eco-toxicological studies have shown that insectivorous mammals, due to their feeding habits, easily accumulate high amounts of pollutants in relation to other mammal species. To assess the bio-accumulation levels of toxic metals and their in°uence on essential metals, we quantified the concentration of 19 elements (Ca, K, Fe, B, P, S, Na, Al, Zn, Ba, Rb, Sr, Cu, Mn, Hg, Cd, Mo, Cr and Pb) in bones of 105 greater white-toothed shrews (Crocidura russula) from a polluted (Ebro Delta) and a control (Medas Islands) area. Since chemical contents of a bio-indicator are mainly compositional data, conventional statistical analyses currently used in eco-toxicology can give misleading results. Therefore, to improve the interpretation of the data obtained, we used statistical techniques for compositional data analysis to define groups of metals and to evaluate the relationships between them, from an inter-population viewpoint. Hypothesis testing on the adequate balance-coordinates allow us to confirm intuition based hypothesis and some previous results. The main statistical goal was to test equal means of balance-coordinates for the two defined populations. After checking normality, one-way ANOVA or Mann-Whitney tests were carried out for the inter-group balances
Resumo:
Objetivo del estudio: comparar las mediciones realizadas en el dispositivo de entrega de agente halogenado, con un modelo matemático donde se encontraron los valores ideales de fracción espirada de agente halogenado para cada evento. Diseño del estudio: diseño de tecnología. Lugar de desarrollo: salas de cirugía de un Hospital Universitario, Bogotá, Colombia. Intervenciones y medidas: luego de diseñar y ensamblar un circuito anestésico semiabierto tipo mascara facial con dos válvulas unidireccionales (una inspitratoria y otra espiratoria), se procedió a tomar las medidas de Concentración inspirada de sevofluorane, y fracción inspirada de oxigeno, con volúmenes espiratorios de 70 a 170 mL con intervalos de 10 mL, y con el dial de sevoflorane a 2, 2.2, 2.4, 2.6 vol%, los resultados consignados fueron comparados con los valores matemáticamente calculados para cada evento. Resultados: las mediciones realizadas en la máscara son concordantes con los cálculos realizados en el modelo matemático. La concentración espirada de sevoflorane es ligeramente superior en cada evento con respecto a lo encontrado en el modelo matemático, no es posible asegurar la no reinhalación con las mediciones realizadas.
Resumo:
Advantage es una empresa de confecciones constituida legalmente en el 2004, la cual se destaca por sus diseños y calidad en sus productos. Gracias a la colaboración obtenida por el gerente de la empresa, el cual facilitó información muy valiosa, se pudo desarrollar el Plan Exportador de la empresa, en el cual después de evaluar una serie de variables se logró identificar el segmento de mercado y tipo de cliente al cual se va a exportar. En este proceso no solo se tuvieron en cuenta, variables relacionadas con la exportación, sino variables que pudieran evaluar cómo se encuentra internamente la empresa. Al obtener los resultados de esta evaluación se sugirieron algunas recomendaciones necesarias para poder comenzar con el Plan Exportador, en el cual se planteará el mercado objetivo con el cual se deberá comenzar, y los pasos a seguir para poder tener una internacionalización exitosa. Hemos desarrollado este trabajo teniendo en cuenta cada factor que pueda afectar de una u otra forma este proceso. La recomendación que consideramos la más importante, es que se concentren en realizar principalmente los cambios internos de la empresa, para que al momento de exportar puedan mostrar no solo ventaja competitiva en diseño y calidad de sus productos, sino que puedan garantizar capacidad productiva y tiempos de entrega adecuados para el mercado objetivo.
Resumo:
Este trabajo hace parte del proyecto de investigación de Thanatos Empresarial, el propósito del tema fue seleccionado con el fin de encontrar un factor o patrón común existente entre las empresas del sector minero colombiano, teniendo en cuenta aquellas que hayan sido liquidadas, estén cursando un proceso de liquidación obligatoria o aun estén desarrollando actividades. El trabajo fue dividido en tres partes principales. En la primera expresamos la problemática que cursa el país por la mortalidad prematura de empresas en el país, problemática que en lugar de disminuir sigue aumentando, pese a que desde hace más de cuatro décadas se han venido creando y modernizando leyes que buscan fomentar la creación de empresas sostenibles y de la misma manera ayudar a aquellas que se vean en la necesidad de entrar en un proceso de liquidación. La segunda parte de la investigación esta nutrida de datos recogidos por entidades, principalmente del estado, durante los últimos 15 años, por medio de los cuales se puede ver detalladamente las cifras de empresas que han venido entrando a procesos de liquidación, concordato, reorganización etc. y como pese a las leyes, muy pocas son las que logran sobrevivir a este proceso. Los resultados obtenidos mediante el análisis de estos datos corroboran de manera precisa esta premisa, las leyes existentes no están siendo suficientes para frenar la mortalidad de empresas en lo que respecta al sector minero nacional. Las empresas no toman decisiones por si solas, al mando de ellas están diferentes personas que como capitanes de un barco dirigen el rumbo de la misma, dependiendo de qué decisiones se tomen desde la dirección y la gerencia la empresa lograra recorrer el camino del éxito o del fracaso. Lamentablemente muchos de los emprendedores colombianos deciden dirigir su compañía sin buscar ayuda de algunos estamentos que fueron creados para ayudarlos y evitar la crisis de las empresas, tales como las cámaras de comercio, y por lo mismo debido a su inexperiencia o al abuso de toma de decisiones arriesgadas terminan por echar por la borda la empresa y poniendo en dificultades a todos los que de una u otra forma interactuaban con esta. Esta investigación cobra importancia cuando aquellas personas que desean crear empresa, buscan informarse con anterioridad sobre los problemas pueden cursar cuando entren en el mercado, encontrando en este trabajo una herramienta valiosísima en la gestión de la crisis la cual hace las veces de guía para evitar repetir el patrón que causa la muerte prematura de muchas empresas en el sector minero y en general en la economía Colombiana.
Resumo:
Desarrollar procedimientos y técnicas integrados en los sistemas de instrucción, para ayudar a modificar y prevenir los problemas de aprendizaje asociados con la impulsividad cognitiva. Comparar la eficacia de los entrenamientos en autoinstrucciones y en solución de problemas a la hora de modificar la impulsividad y mejorar el rendimiento académico del niño. Evaluar los efectos de algunas aportaciones de los sistemas de instrucción en estrategias cognitivas o CSI, respecto a la generalización y mantenimiento de resultadoss programas de intervención no producirán cambios en el comportamiento social del niño. Dos aulas de quinto y dos de sexto de EGB del C. P. Miquel Porcel de Palma, durante el curso académico 90-91. Muestra inicial de 81 alumnos de los cuales se seleccionan 21, 10 de quinto y 11 de sexto, por ser clasificados como impulsivos, con un rendimiento académico moderado-bajo, acompañado de dificultades de aprendizaje no atribuibles directamente a factores neuropsicológicos o socio-familiares. Distribución aleatoria de los sujetos en tres grupos, controlando las variables curso y sexo: 7 para el programa de autoinstrucciones, AI, 7 para el de solución de problemas, SP, y 7 para el grupo control, sin tratamiento. El trabajo se estructura en tres grandes partes. La primera trata aspectos teóricos de la reflexibidad-impulsividad, R-I, desde el ámbito de los estilos cognitivos. La segunda parte establece las relaciones de la R-I con la educación viendo las nuevas posibilidades de conceptualización y modificación dentro de los modelos de instrucción en estrategias o CSI. La tercera parte aplica un diseño experimental para comprobar la efectividad de esta relación entre la perspectiva cognitivo-conductual y la CSI. 1. Test de emparejamiento de figuras familiares de Cairns y Cammock o MFF-20, 1978, para medir la reflexividad-impulsividad. 2. Test de matrices progresivas de Raven -serie especial-, para medir la inteligencia entendida como razonamiento analógico. 3. Prueba objetiva de rendimiento académico o POR, basada en el currículum del centro, para medir la comprensión lectora, la expresión escrita, la resolución de problemas elementales, el cálculo, etc. 4. Cuestionario de evaluación de conductas en el aula o CECA, para medir el comportamiento, las habilidades básicas y el rendimiento académico. Destinado a los profesores. 5. Prueba inicial del rendimiento académico o PIN, destinada únicamente a los grupos experimentales. Para seleccionar la muestra experimental se utilizan las puntuaciones globales de los cuatro primeros instrumentos; para la evaluación pre y post tratamiento se utiliza el primero y los tres últimos; y para la evaluación del seguimiento se utiliza el primero y una versión reducida del tercero y del quinto. Los tres últimos instrumentos son de elaboración propia. Se utiliza el sistema de economía de fichas para la atención y el buen comportamiento durante la aplicación de los tratamientos. La muestra inicial se analiza con los siguientes procedimientos. Diseño factorial AxB con dos niveles en cada factor al que se le aplica el análisis de varianza Two Ways. Análisis de varianza One Way para los cuatro grupos del sistema tradicional, los contrastes posteriores se realizan con la prueba de Student-Newman-Keuls. Comparación de medias con T-Test para la PI. El diseño correlacional analiza las relaciones entre las medidas del MFF-20 y del Ravesn sobre las medidas del POR y CECA; y la fiabilidad del CECA mediante el método test-retest. 2. La muestra experimental se analiza con los siguientes procedimientos: diseño factorial AxB intra-sujetos con medidas repetidas en el factor B. El factor A o Factor grupo está compuesto por tres niveles: AI, SP y CN. El factor B o factor test está compuesto por dos o tres niveles: evaluación pre-tratamiento, evaluación post-tratamiento y, para alguna medida, evaluación de seguimiento. Se ha efectuado el análisis multivariante de la varianza, MANOVA, sobre las distintas medidas; cuando las interacciones grupo X test han sido significativas se ha procedido al análisis de los contrastes, tipo simple. En las medidas donde las interacciones no han sido significativas pero sí lo han sido las variables entre-sujetos, factor grupo, y/o la variabilidad intrasujetos, factor test, se ha procedido a la aplicación de los ANOVA para cada factor y al análisis de los contrastes con la prueba Student-Neyman-Keuls. Se confirman las tres hipótesis de la muestra inicial. Por lo que respecta al diseño experiemental, si bien las H4 y H5 se han cumplido hasta cierto punto, las tres hipótesis exploratorias consideradas de mayor interés sólo se han cumplido parcialmente. Los programas han sido efectivos en la modificación de la R-I y en el mantenimiento de resultados. Sin embargo, los resultados sobre la mejora del rendimiento académico han sido aceptables únicamente sobre las medidas globales de la POR y la PIN pero no se han mantenido tras el seguimiento. Por otra parte, H2 y H3 sólo se han cumplido estadísticamente sobre los errores aunque la tendencia sobre la PI es la misma. De todos modos, en el caso de las latencias el programa de solución de problemas se muestra ligeramente superior al de autoinstrucciones tanto en el postratamiento como en el seguimiento. Si bien todavía quedan bastantes puntos oscuros en la concepción de la R-I, los esfuerzos realizados tanto en los aspectos conceptuales como en los metodológicos han servido para confirmar las repercusiones de ésta dentro del ámbito educativo. La preocupación por incorporar los avances realizados dentro de la orientación del enseñar a pensar es palpable. El problema radica en plantearse no sólo las reformas de los contenidos curriculares, necesarias e importantes, sino también en plantearse las posibilidades de modificar los sistemas de instrucción para que se haga un mayor énfasis en el fomento de los procesos cognitivos.
Resumo:
GLOSARIO • Neuromarketing: El Neuromarketing consiste en la aplicación de las técnicas de investigación de las Neurociencias a la investigación de marketing tradicional. A través de técnicas de medición de la actividad cerebral (como el EGG o la fMRI), las “respuestas” de los entrevistados a distintos estímulos (por ejemplo, anuncios publicitarios) son leídas directamente de su actividad cerebral (Neuromarca) • Neurociencia: La neurociencia estudia la estructura y la función química, farmacología, y patología del sistema nervioso y de cómo los diferentes elementos del sistema nervioso interactúan y dan origen a la conducta (Neurologia y ove) • Mercadeo: Según la American Marketing Asociation (A.M.A.), el marketing es una forma de organizar un conjunto de acciones y procesos a la hora de crear un producto “para crear, comunicar y entregar valor a los clientes, y para manejar las relaciones” y su finalidad es beneficiar a la organización satisfaciendo a los clientes (Revista PYM) • Cerebro: Es la parte más evolucionada y grande del encéfalo. En el cerebro se dan la cognición, el pensamiento y las emociones; también la memoria y el lenguaje. Tiene dos hemisferios, cada uno con 4 lóbulos: frontal, temporal, parietal y occipital. La parte más externa es el cortex cerebral, que tiene unos repliegues que forman circunvoluciones y cisuras (Enciclopedia Salud) • Estrategia Empresarial: Es la que define las diferentes líneas de acción que debe asumir cada uno de los individuos que desempeñan las funciones dentro de la misma y permite a toda organización generar una ventaja competitiva en el mercado en el que desenvuelve sus actividades, generando mayores utilidades y permitiendo aprovechar cada una de las oportunidades dándole un valor agregado (Emagister) • Integración sensorial: Es un proceso Neurológico por el cual las sensaciones que provienen de nuestro entornoy de nuestro cuerpo, son organizadas e interpretadas para su uso (Enciclopedia Salud) • Top of Mind: Es el indicador que revela cuál es la marca que, cuando le preguntan por una categoría específica, se le viene a la mente en primer lugar al mayor porcentaje de personas (Gerente) • Valor Agregado: Valor agregado o valor añadido, en términos de marketing, es una característica o servicio extra que se le da a un producto o servicio, con el fin de darle un mayor valor comercial; generalmente se trata de una característica o servicio poco común, o poco usado por los competidores, y que le da al negocio o empresa cierta diferenciación (Crece Negocios)
Resumo:
ANTECEDENTES: En Colombia, reportes del año 2010 de la Encuesta Nacional de la Situación en Nutrición ENSIN 2010(2), muestran uno de cada dos colombianos, presentan un índice de masa corporal mayor al esperado (3) METODO: El presente estudio de corte transversal, determino la prevalencia de obesidad y otros factores de riesgo cardiovascular en una población de estudiantes de Ciencias de la Salud de una Universidad regional en el primer periodo académico del año 2013. El tamaño de muestra fue n=113 sujetos que corresponden 60,5% a la carrera de medicina y 39,95% a enfermería. Con el fin de conocer su comportamiento con respecto a hábitos y estilos de vida específicos como el consumo de alcohol, el consumo de tabaco y el sedentarismo, así como su asociación a eventos inflamatorios relacionados con la fisiopatología de los procesos de salud asociados al peso, por medio de instrumentos de medición clínica, antropométrica y sérica, determino un modelo estadístico propicio para entender el comportamiento de la obesidad y la enfermedad Cardiovascular RESULTADOS: La prevalencia estimada de sobrepeso y obesidad por Índice de Masa Corporal (IMC), fue del 27,7% (IC 95%: 19.9%,37.2%); por el perímetro abdominal (OBPABD) se encontró una prevalencia estimada del 27,4% (IC 95%: 19,9% – 36,4%), y la prevalencia con el Índice Cintura Cadera (OBICC) fue de 3,5% (IC 95%:1,3% – 9,3%). CONCLUSIONES: La presencia de hábitos no saludables y la presencia de sobrepeso y obesidad se considera que es necesario en primera instancia una valoración general de estado nutricional de los universitarios de las diferentes facultados y plantear estrategias preventivas ya que la literatura documenta los efectos de los hábitos no saludables sino además documenta los efectos de la prevención de la misma ya que en si se ha encontrado asociación para enfermedades cardiovasculares. Se propone que para obtener mayor información del comportamiento de los factores de riesgo cardiovasculares se deberían realizar estudios retrospectivos en el que intervengan las demás carreras de la universidad y poder evaluar la totalidad de población universitaria
Resumo:
La Responsabilidad Social Empresarial (RSE), no es un tema nuevo pero en la actualidad se ha convertido en una estrategia de negocios que le permite a las empresas mejorar a su interior y así obtener mas beneficios externos ya que cuenta con mayor credibilidad y más aún con proyectos sostenibles en pro del la comunidad y de factores tales como el ambiente, los clientes entre otros. Este trabajo de investigación busca dar a conocer como alrededor de los negocios las empresas si pueden llegar a ser responsables socialmente, dando a conocer inicialmente los fundamentos teóricos del tema y posteriormente realizando un análisis a tres multinacionales con presencia en Colombia y simultáneamente en otros países de América Latina, tal como lo son Unilever, Telefónica y Coca Cola. Estos casos específicos, en su diagnóstico, dejan ver de una forma u otra como a través de los compromisos que han asumido estas empresas, los proyectos sostenibles que se han desarrollado a su interior han permitido mejorar aspectos de la comunidad que necesitada de estas soluciones muestran interés generando resultados que se dan por la gestión que se define con la ética de la misma empresa. Esto permite ver como de esta forma se puede preservar los recursos ambientales y culturales para las generaciones futuras, respetando la diversidad y promoviendo la disminución de las desigualdades sociales.
Resumo:
El propósito de este estudio es evaluar la sensibilidad, especificidad y valores predictivos del Cuestionario Anamnésico de Síntomas de Miembro Superior y Columna (CASMSC) desarrollado por la Unidad de Investigación de Ergonomía de Postura y Movimiento (EPM). Se realizó un estudio descriptivo de tipo correlacional, mediante el análisis de datos secundarios de una base de datos con registros de trabajadores de la industria de alimentos (n=401) en el año 2013, a quienes se les había aplicado el CASMSC, así como una evaluación clínica fisioterapéutica enfocada en los mismos segmentos corporales; esta última utilizada como prueba de oro. Para analizar si existían diferencias estadísticas por edad, antigüedad y género se aplicó el análisis de varianza de una vía. La sensibilidad, especificidad y valores predictivos del CASMSC se informan con sus respectivos intervalos de confianza (95%). La prevalencia de umbral positivo para sospecha de Desorden Músculo Esquelético (DME) tanto de miembro superior como de columna se encontró muy por encima de la media nacional para el sector. La sensibilidad del CASMSC para miembro superior estuvo en el rango de un 80% a 94,57% y para columna cervical y lumbar fue de 36,4% y 43,4%, respectivamente. Para la región dorsal fue casi del doble de las otras dos regiones (85,7%). El CASMSC es recomendable en su apartado para miembro superior dado a su alto nivel de sensibilidad.