895 resultados para alimentação automática


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Data Mining surge, hoje em dia, como uma ferramenta importante e crucial para o sucesso de um negócio. O considerável volume de dados que atualmente se encontra disponível, por si só, não traz valor acrescentado. No entanto, as ferramentas de Data Mining, capazes de transformar dados e mais dados em conhecimento, vêm colmatar esta lacuna, constituindo, assim, um trunfo que ninguém quer perder. O presente trabalho foca-se na utilização das técnicas de Data Mining no âmbito da atividade bancária, mais concretamente na sua atividade de telemarketing. Neste trabalho são aplicados catorze algoritmos a uma base de dados proveniente do call center de um banco português, resultante de uma campanha para a angariação de clientes para depósitos a prazo com taxas de juro favoráveis. Os catorze algoritmos aplicados no caso prático deste projeto podem ser agrupados em sete grupos: Árvores de Decisão, Redes Neuronais, Support Vector Machine, Voted Perceptron, métodos Ensemble, aprendizagem Bayesiana e Regressões. De forma a beneficiar, ainda mais, do que a área de Data Mining tem para oferecer, este trabalho incide ainda sobre o redimensionamento da base de dados em questão, através da aplicação de duas estratégias de seleção de atributos: Best First e Genetic Search. Um dos objetivos deste trabalho prende-se com a comparação dos resultados obtidos com os resultados presentes no estudo dos autores Sérgio Moro, Raul Laureano e Paulo Cortez (Sérgio Moro, Laureano, & Cortez, 2011). Adicionalmente, pretende-se identificar as variáveis mais relevantes aquando da identificação do potencial cliente deste produto financeiro. Como principais conclusões, depreende-se que os resultados obtidos são comparáveis com os resultados publicados pelos autores mencionados, sendo os mesmos de qualidade e consistentes. O algoritmo Bagging é o que apresenta melhores resultados e a variável referente à duração da chamada telefónica é a que mais influencia o sucesso de campanhas similares.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A estrutura temporal das taxas de juro, também conhecida por yield curve ou curva de rendimentos define a relação entre as taxas de juros e o prazo de vencimento (ou maturidades) dos investimentos feitos. Assim, o desenvolvimento de modelos que possibilitem a obtenção de previsões precisas sobre a estrutura temporal das taxas de juro e que permitam estudar a dinâmica da evolução das taxas de juro é de crucial importância em diversas áreas de financiamento. Neste estudo investigou-se a performance de diferentes métodos de previsão para obter a estrutura temporal das taxas de juro da Zona Euro, considerando o período entre 2009 e 2015. Em termos mais específicos, foi analisada a capacidade preditiva do modelo de Nelson-Siegel & Svensson assumindo que os parâmetros resultantes da estimação da especificação paramétrica podem ser modelizados através de métodos de séries temporais univariados (modelos ARIMA, Random walk) e multivariados (modelos VAR) e Redes Neuronais Artificiais (RNA) individuais e conjuntas. Os resultados deste estudo mostram que (i) as RNA com a previsão dos parâmetros em simultâneo exibem os valores de erro mais baixos para as maturidades de curto e médio prazo (3 meses a 5 anos); (ii) As RNAs individuais são melhores para prever as taxas de juro nas maturidades compreendidas entre os 7 e os 10 anos, e que (iii) para as maturidades de longo e muito longo prazo (15 e 30 anos respetivamente) deverá ser escolhido o modelo VAR(1). Estes resultados são robustos e consistentes para todos os horizontes de previsão analisados (1,2 e 3 meses). Contudo, no período analisado nenhum dos modelos testados apresenta valores de erro inferiores aos obtidos com o modelo Random Walk.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tesis (Maestría en Ciencias en Ingeniería de Sistemas) UANL, 2012.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En la actualidad, el uso de las tecnologías ha sido primordial para el avance de las sociedades, estas han permitido que personas sin conocimientos informáticos o usuarios llamados “no expertos” se interesen en su uso, razón por la cual los investigadores científicos se han visto en la necesidad de producir estudios que permitan la adaptación de sistemas, a la problemática existente dentro del ámbito informático. Una necesidad recurrente de todo usuario de un sistema es la gestión de la información, la cual se puede administrar por medio de una base de datos y lenguaje específico, como lo es el SQL (Structured Query Language), pero esto obliga al usuario sin conocimientos a acudir a un especialista para su diseño y construcción, lo cual se ve reflejado en costos y métodos complejos, entonces se plantea una pregunta ¿qué hacer cuando los proyectos son pequeñas y los recursos y procesos son limitados? Teniendo como base la investigación realizada por la universidad de Washington[39], donde sintetizan sentencias SQL a partir de ejemplos de entrada y salida, se pretende con esta memoria automatizar el proceso y aplicar una técnica diferente de aprendizaje, para lo cual utiliza una aproximación evolucionista, donde la aplicación de un algoritmo genético adaptado origina sentencias SQL válidas que responden a las condiciones establecidas por los ejemplos de entrada y salida dados por el usuario. Se obtuvo como resultado de la aproximación, una herramienta denominada EvoSQL que fue validada en este estudio. Sobre los 28 ejercicios empleados por la investigación [39], 23 de los cuales se obtuvieron resultados perfectos y 5 ejercicios sin éxito, esto representa un 82.1% de efectividad. Esta efectividad es superior en un 10.7% al establecido por la herramienta desarrollada en [39] SQLSynthesizer y 75% más alto que la herramienta siguiente más próxima Query by Output QBO[31]. El promedio obtenido en la ejecución de cada ejercicio fue de 3 minutos y 11 segundos, este tiempo es superior al establecido por SQLSynthesizer; sin embargo, en la medida un algoritmo genético supone la existencia de fases que amplían los rangos de tiempos, por lo cual el tiempo obtenido es aceptable con relación a las aplicaciones de este tipo. En conclusión y según lo anteriormente expuesto, se obtuvo una herramienta automática con una aproximación evolucionista, con buenos resultados y un proceso simple para el usuario “no experto”.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El resumen es copia del publicado con el artículo

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desde la primera utilización del término empatía en Psicología, a principios del siglo XX, su uso se ha extendido por las distintas ramas de esta ciencia, lo que ha dado lugar a la proliferación de teorías y categorías concebidas para explicar su funcionamiento o describir sus componentes. En el presente artículo se revisan algunas discusiones sobre los alcances y los límites del concepto de empatía y se intenta aclarar las particularidades y las relaciones entre términos que conviven en la investigación sobre el tema: contagio emocional, empatía emocional, toma de perspectiva, teoría de la mente y mentalización. Se propone además una integración de este campo conceptual en un esquema amplio, al buscar dar cuenta de la complejidad del constructo de Empatía.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Promover la indemnización automática por parte del Estado paro los casos de Preclusión de la investigación, Cesación de procedimiento y sentencia absolutoria por la privación injusta de la libertad a un inocente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el momento de vaciar el documento, éste no estaba disponible en la web

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este vídeo forma parte de la Enciclopedia Audiovisual de las Ciencias y las Técnicas, y se estructura en capítulos de cuatro minutos. Cada capítulo expone el estudio de un objeto o fenómeno científico y propone: recordatorios, definiciones, exploraciones para entender mejor un funcionamiento, animaciones para representar fenómenos complejos, descubrimientos y aplicaciones y puntos que remiten a otros capítulos de la enciclopedia directamente relacionados con el tema que se trata. Los capítulos incluidos en este volumen son: la mecanización; la soldadura; el encolado; el corte; la estampación y la embutición; la inyección de los materiales plásticos; la cadena de fabricación; la unidad de transferencia; el autómata programable; los sensores; el servosistema; el mando de control; el taller flexible; la gestión de producción; la gestión de calidad y, las herramientas de diseño y la fabricación asistidas por ordenador.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen tomado de la revista. Número extraordinario titulado : Calidad en la enseñanza universitaria. Innovación didáctica en la Universidad de Sevilla

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La sociedad moderna se enfrenta diariamente a una avalancha de información de crecimiento exponencial, debida a la generación constante de nuevas fuentes de información que la producen de forma muchas veces automática y, por tanto, a un ritmo capaz de desbordar a cualquier individuo. Este crecimiento de la información generada hace necesario un aumento de la capacidad de filtrado y asimilación para afrontar la avalancha, seleccionar y aprovechar de ella lo necesario. Los objetivos de este trabajo son estudiar las arquitecturas existentes con vistas a crear un agente inteligente capaz de integrarse en ellas de forma eficaz; facilitar la intercomunicabilidad de sistemas aunque utilicen distintos códigos de representación de los objetos docentes que intercambian; ofrecer una capa de abstracción superior con funcionalidades comunes disponibles para todos los sistemas que cubran las necesidades de comunicación; basar la propuesta en estándares reconocidos y sólidos; estudiar un modelo de nomenclatura para la especificación de las acciones a realizar por el agente en las diversas situaciones que se presenten y para nombrar e identificar las diferentes entidades participativas en todo el proceso, así como sus relaciones. Para conseguir estos objetivos se realiza un repaso al estado del arte en dos áreas principales, los sistemas de teleformación y los agentes inteligentes.. El método de trabajo tiene los siguientes pasos: desarrollo detallado y concreto del objetivo del que se obtendrán las necesidades a cubrir a partir de los elementos actuales para alcanzar dicho objetivo; análisis Particularizado y Profundo de los componentes tecnológicos implicados, adaptados al objetivo, y las necesidades a cubrir con estos componentes; LMS y arquitecturas que deben ser interconectadas. Este estudio será vital para establecer las necesidades y posibilidades. 99 estándares de intercomunicación de LMS, sobre los que se realizará la abstracción a un nivel. Agentes, encargados de la intercomunicación y soporte de la arquitectura que habilitará a los LMS para la interconexión. Enunciado y justificación de la propuesta. En su forma definitiva tras el desarrollo y aplicación de los componentes. Estudio de Viabilidad de la propuesta que llevará a decidir si es factible su implantación y, de no serlo, que habría de cambiar en los sistemas para que lo fuera..

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta investigación propone un modelo computacional de lectura que elabora una representación de la semántica de un texto como resultado de un proceso en el tiempo. Dicha representación posee una estructura que permite la descripción de las relaciones entre los conceptos leídos y su nivel de significado en cada momento del proceso de lectura.. En este trabajo se presenta el sistema SILC, Sistema de Indexación Mediante Lectura Cognitiva. Éste intenta simular, en parte, procesos cognitivos de alto nivel que operan en el tiempo. En primer lugar, construye una red de asociación conceptual como una memoria lingüística base a partir de una colección de textos que representan el espacio de conocimiento semántico. A continuación genera representaciones de los textos de entrada como redes de conceptos con niveles de activación, que recogen el nivel de significación semántica de los mismos. Para ello, este modelo utiliza el conocimiento semántico lingüístico, previamente construido, y realiza inferencias sobre el mismo mediante la propagación por la red de la activación de los conceptos leídos secuencialmente. La representación generada se emplea posteriormente para indexar documentos para clasificarlos automáticamente. Se realizan experimentos para comparar el modelo con sujetos humanos, tanto durante la lectura, mediante la predicción o inferencia de conceptos, como al final de la misma, mediante la comparación con resúmenes generados por los sujetos.. Los resultados muestran que el sistema es adecuado para modelar de manera aproximada el proceder humano en la lectura y confirman la hipótesis de partida de SILC que considera que se realizan mejor las tareas prácticas del lenguaje cuanto más se asemeje el sistema a los seres humanos. También se demuestra que el sistema es adecuado como marco experimental de validación de hipótesis relacionadas con aspectos cognitivos de la lectura. En otros experimentos de aplicación práctica se observa que, una vez que se optimizan sus parámetros, el modelo de lectura implementado hace a SILC adecuado para su aplicación a tareas reales de procesamiento de lenguaje natural..