1000 resultados para Modelo de predicción


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este proyecto se incluye en una línea de trabajo que tiene como objetivo final la optimización de la energía consumida por un dispositivo portátil multimedia mediante la aplicación de técnicas de control realimentado, a partir de una modificación dinámica de la frecuencia de trabajo del procesador y de su tensión de alimentación. La modificación de frecuencia y tensión se realiza a partir de la información de realimentación acerca de la potencia consumida por el dispositivo, lo que supone un problema ya que no suele ser posible la monitorización del consumo de potencia en dispositivos de estas características. Este es el motivo por el que se recurre a la estimación del consumo de potencia, utilizando para ello un modelo de predicción. A partir del número de veces que se producen ciertos eventos en el procesador del dispositivo, el modelo de predicción es capaz de obtener una estimación de la potencia consumida por dicho dispositivo. El trabajo llevado a cabo en este proyecto se centra en la implementación de un modelo de estimación de potencia en el kernel de Linux. La razón por la que la estimación se implementa en el sistema operativo es, en primer lugar para lograr un acceso directo a los contadores del procesador. En segundo lugar, para facilitar la modificación de frecuencia y tensión, una vez obtenida la estimación de potencia, ya que esta también se realiza desde el sistema operativo. Otro motivo para implementar la estimación en el sistema operativo, es que la estimación debe ser independiente de las aplicaciones de usuario. Además, el proceso de estimación se realiza de forma periódica, lo que sería difícil de lograr si no se trabajase desde el sistema operativo. Es imprescindible que la estimación se haga de forma periódica ya que al ser dinámica la modificación de frecuencia y tensión que se pretende implementar, se necesita conocer el consumo de potencia del dispositivo en todo momento. Cabe destacar también, que los algoritmos de control se tienen que diseñar sobre un patrón periódico de actuación. El modelo de estimación de potencia funciona de manera específica para el perfil de consumo generado por una única aplicación determinada, que en este caso es un decodificador dedeo. Sin embargo, es necesario que funcione de la forma más precisa posible para cada una de las frecuencias de trabajo del procesador, y para el mayor número posible de secuencias dedeo. Esto es debido a que las sucesivas estimaciones de potencia se pretenden utilizar para llevar a cabo la modificación dinámica de frecuencia, por lo que el modelo debe ser capaz de continuar realizando las estimaciones independientemente de la frecuencia con la que esté trabajando el dispositivo. Para valorar la precisión del modelo de estimación se toman medidas de la potencia consumida por el dispositivo a las distintas frecuencias de trabajo durante la ejecución del decodificador dedeo. Estas medidas se comparan con las estimaciones de potencia obtenidas durante esas mismas ejecuciones, obteniendo de esta forma el error de predicción cometido por el modelo y realizando las modificaciones y ajustes oportunos en el mismo. ABSTRACT. This project is included in a work line which tries to optimize consumption of handheld multimedia devices by the application of feedback control techniques, from a dynamic modification of the processor work frequency and its voltage. The frequency and voltage modification is performed depending on the feedback information about the device power consumption. This is a problem because normally it is not possible to monitor the power consumption on this kind of devices. This is the reason why a power consumption estimation is used instead, which is obtained from a prediction model. Using the number of times some events occur on the device processor, the prediction model is able to obtain a power consumption estimation of this device. The work done in this project focuses on the implementation of a power estimation model in the Linux kernel. The main reason to implement the estimation in the operating system is to achieve a direct access to the processor counters. The second reason is to facilitate the frequency and voltage modification, because this modification is also done from the operating system. Another reason to implement the estimation in the operating system is because the estimation must be done apart of the user applications. Moreover, the estimation process is done periodically, what is difficult to obtain outside the operating system. It is necessary to make the estimation in a periodic way because the frequency and voltage modification is going to be dynamic, so it needs to know the device power consumption at every time. Also, it is important to say that the control algorithms have to be designed over a periodic pattern of action. The power estimation model works specifically for the consumption profile generated by a single application, which in this case is a video decoder. Nevertheless, it is necessary that the model works as accurate as possible for each frequency available on the processor, and for the greatest number of video sequences. This is because the power estimations are going to be used to modify dynamically the frequency, so the model must be able to work independently of the device frequency. To value the estimation model precision, some measurements of the device power consumption are taken at different frequencies during the video decoder execution. These measurements are compared with the power estimations obtained during that execution, getting the prediction error committed by the model, and if it is necessary, making modifications and settings on this model.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Las pruebas de Fluencia Verbal (FV) Semántica (FVS) y Fonológica (FVF) son muy empleadas en la práctica clínica. Disponer de diferentes pruebas alternativas que además tengan en cuenta el efecto de variables sociodemográficas mejorarían su uso como tests de cribado, permitiendo diferenciar a personas con y sin Enfermedad de Alzheimer (EA). Objetivos. Comparar la capacidad discriminativa de las tareas de FVS “cosas en una casa” y “alimentos” frente a la tarea “animales” entre pacientes con EA (n = 50) y sujetos sanos (n = 50); comparar el uso de los fonemas “P”-“M”-“R” como tarea alternativa y/o paralela a los fonemas “F”-“A”-“S”; y valorar el uso combinado de ambos tipos de tareas junto con el de variables sociodemográficas para la discriminación de pacientes con EA y sujetos sanos. Resultados. Tanto la categoría semántica como fonológica muestran resultados semejantes, una alta correlación, mantienen la validez de criterio y permiten su utilización de forma paralela. El modelo de predicción que logra discriminar correctamente al 91% de los sujetos evaluados es el que incluye las tareas “cosas en una casa”, los fonemas “A” - “S” y las variables edad y años de escolarización. Conclusiones. La utilización paralela de pruebas de FVS y FVF, junto con variables sociodemográficas mejora la capacidad discriminativa de las pruebas de FV

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El presente artículo describe el proceso de implementación de un modelo de predicción de la propagación de señales en interiores, basado en el modelo semiempírico de K. W. Cheung, J. H. M. Sau, y R. D. Murch,[1] donde se tienen en cuenta la atenuacióndebida a la distancia, el ángulo de incidencia sobre las paredes, laatenuación asociada a estas mismas y las zonas de Fresnel.Los datos del entorno a simular son tomados de un archivo DXF que debe seguir un formato establecido. Se obtienen del usuario la atenuación asociada a cada tipo de pared y la ubicacióndel punto de acceso. También se desarrolla un algoritmo desombreado que optimiza el tiempo de simulación debido a su sencillez. Finalmente se muestra la comparación de los resultados de la simulación y los datos obtenidos en la prueba de campo.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

En el presente trabajo de fin de máster se realiza una investigación sobre las técnicas de preproceso del dataset de entrenamiento y la aplicación de un modelo de predicción que realice una clasificación de dı́gitos escritos a mano. El conjunto de dataset de train y test son proporcionado en la competencia de Kaggle: Digit Recognizer y provienen de la base de datos de dı́gitos manuscritos MNIST. Por tratarse de imágenes las técnicas de preproceso se concentran en obtener una imagen lo más nı́tida posible y la reducción de tamaño de la misma, objetivos que se logran con técnicas de umbralización por el método de Otsu, transformada de Wavelet de Haar y el análisis de sus componentes principales. Se utiliza Deep Learning como modelo predictivo por ajustarse a este tipo de datos, se emplean además librerı́as de código abierto implementadas en el lenguaje estádisto R. Por último se obtiene una predicción con las técnicas y herramientas mencio- nadas para ser evaluada en la competencia de Kaggle, midiendo y comparando los resultados obtenidos con el resto de participantes.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Tesis (Maestría en Ciencias con Especialidad en Ingeniería Cerámica Orientada a Vidrio) U.A.N.L.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Tesis (Maestría en Administración con Especialidad en Finanzas) U.A.N.L.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El modelo de Eysenck y Grossarth-Maticek asume que la relación entre factores psicosociales y enfermedad puede ser entendida según seis tipos de personalidad. Algunos tipos están predispuestos a enfermedades específicas mientras otros están preservados. El objetivo de este estudio ha sido evaluar la validez convergente y discriminante del modelo en una muestra de estudiantes universitarios. Los resultados indican, en general, la aceptable validez convergente y discriminante del modelo.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Frutos de pera cv. "Blanquilla" de distintos grados de madurez se ensayaron a impacto mecánico con un indentador esférico de 50.6 g de masa desde tres alturas de caída ( 4,6 y 10 cm) y se determinó un modelo lineal para cada uno de los parámetros que definían la magulladura producida (profundidad y diámetro) y en cada uno de los dos grupos de frutos estudiados: no senescentes y senescentes en función de las variables definitorias del fenómeno del impacto y del estado del fruto que se consideraron mas representativas. Se observa que los modelos lineales determinados explican la magulladura en menos del 57% siendo la energía máxima de impacto la que adquiere mayor importancia en ambos grupos. En los senescentes, el estado fisiológico (expresado por el índice de madurez E/A y la acidez titulable) posee una relevancia mayor que el resto de variables y las deformaciones (indicativas de un comportamiento plástico del producto) toman gran importancia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este trabajo evaluamos la utilidad de una medida de la eficiencia en la generación de ventas, para la predicción del resultado de explotación futuro, bajo la hipótesis de que si la medida de la eficiencia es capaz de capturar el componente permanente de los resultados, debería ser útil para la predicción de los resultados futuros, en adición a los resultados actuales. Con el objetivo anterior, en una primera etapa, utilizamos el Análisis Envolvente de Datos (DEA) para determinar la ineficiencia relativa de las empresas en el uso de los recursos a su disposición para generar el nivel máximo posible de ventas. Los inputs incorporados en el modelo DEA (gastos de personal, consumos de materias primas y otros, amortización, y otros gastos de explotación) se obtienen a partir de información contenida en la Cuenta de Pérdidas y Ganancias. En la segunda etapa, la medida de ineficiencia se introduce como variable explicativa en un modelo de regresión en el que la variable dependiente es el resultado de explotación en el año inmediatamente posterior. Los resultados del estudio empírico indican que la medida de ineficiencia relativa proporcionada por el modelo DEA tiene contenido informativo para la predicción del resultado de explotación futuro, en adición al resultado de explotación actual y pasado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de este proyecto es la predicción de la pérdida de paquete. Para ello necesitaremos el modelado del canal. De esta manera, podremos determinar cuando una transmisión llega con éxito o no. En primer lugar, se han estudiado los algoritmos de adaptación de la tasa. Estos algoritmos mejoran el rendimiento de la comunicación. Por este motivo, el programa de simulación se basa en algunos de estos algoritmos. En paralelo, se han capturado medidas del canal terrestre para realizar el modelado. Finalmente, con un programa mucho más completo se ha simulado el comportamiento de una transmisión con el modelado del canal físico, y se han asumido algunas consideraciones, como las colisiones. Por lo tanto, se ha obtenido un resultado más realista, con el cual se ha analizado teóricamente las posibilidades de un enlace entre el canal terrestre y el canal satélite, para crear una red híbrida.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La predicción de incendios forestales es uno de los grandes retos de la comunidad científica debido al impacto medioambiental, humano y económico que tienen en la sociedad. El comportamiento de este fenómeno es difícil de modelar debido a la gran cantidad de variables que intervienen y la dificultad que implica su correcta medición. Los simuladores de fuego son herramientas muy útiles pero, actualmente, los resultados que obtenemos tienen un alto grado de imprecisión. Desde nuestro grupo se ha trabajado en la predicción en dos etapas, donde antes de realizar cualquier predicción, se incorpora una etapa de ajuste de los parámetros de entrada para obtener mejores predicciones. Pese a la mejora que supone este nuevo paradigma de predicción, las simulaciones sobre incendios reales tienen un alto grado de error por el efecto de las condiciones meteorológicas que, usualmente, varían de manera notable durante el transcurso de la simulación. Uno de los factores más determinantes en el comportamiento de un incendio, junto con las características del terreno, es el viento. Los modelos de predicción son extremadamente sensibles al cambio en los componentes de dirección y velocidad del viento por lo que cualquier mejora que podamos introducir para mejorar la calidad de estas componentes influye directamente en la calidad de la predicción. Nuestro sistema de predicción utiliza la dirección y velocidad del viento de forma global en todo el terreno, y lo que proponemos con este trabajo es introducir un modelo de vientos que nos permita generar vientos locales en todas las celdas en las que se divide el terreno. Este viento local dependedel viento general y de las características del terreno de dichas celdas. Consideramos que la utilización de un viento general no es suficiente para realizar una buena predicción del comportamiento de un incendio y hemos comprobado que la inclusión de un simulador de campo de vientos en nuestro sistema puede llegar a mejorar nuestras predicciones considerablemente. Los resultados obtenidos en los experimentos sintéticos que hemos realizado nos hacen ser optimistas, puesto que consideramos que la inclusión de componentes de viento locales permitirá mejorar nuestras predicciones en incendios reales.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A través de la investigación presentada en este articulo se ha pretendido operacionalizar la parte predictiva de la Teoria de Acción Razonada, propuesta por Fishbein y Ajzen. Para ello, se ha utilizado la reciente metodologia de 10s modelos de ecuaciones estructurales lineales con variables latentes desarrollados por Joreskog y Sorbom, entre otros. Como dominio se ha delimitado el consumo de tabaco en distintas situaciones sociales. Después de estimar y valorar el modelo predictivo especificado desde la Teoria de Fishbein y Ajzen, se estimo y valoro el modelo generalizado propuesto por Bentler y Speckart y se asumió como mas coherente este modelo generalizado. En el trabajo también se plantean una serie de observaciones para optimizar, sobre todo, la parte metodológica de recogida de datos asociados a estos modelos y se presenta una propuesta para operacionalizar todo el sistema teórico de predicción y explicación de las conductas desde la Teoria de Fishbein y Ajzen.