822 resultados para Multicast Filtering


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introducción: El conocimiento actual de la fisiopatología del envejecimiento periorbitario justifica la aplicación de materiales de relleno inyectables, dado que se enfocan en la restauración del volumen perdido en esta zona, convirtiéndose en una excelente alternativa a procedimientos quirúrgicos que remueven el tejido excedente. Sin embargo los efectos y la seguridad de esta naciente tendencia terapéutica aún no se sustentan en una sólida base científica. El objetivo de esta revisión es identificar el material de relleno inyectable más adecuado para el manejo de los defectos volumétricos estéticos de la región periorbitaria. Metodología: Se realizó una búsqueda exhaustiva de los artículos indexados publicados del 1º de enero de 2.000 al 30 de septiembre de 2.013, en diversas bases de datos electrónicas, se seleccionaron catorce publicaciones, se extrajo la información referente a datos demográficos, la intervención, el seguimiento y los desenlaces y se realizó un análisis de 14 estudios que cumplieron los criterios. Resultados: Todos los artículos incluidos poseían un bajo nivel de evidencia y del grado de recomendación. Todos los materiales de relleno se asociaron a altos niveles de satisfacción para el paciente, adecuada mejoría de la apariencia estética y similares efectos colaterales, el ácido hialurónico fue el material de relleno inyectable más utilizado en la región periorbitaria. Discusión: Los materiales de relleno inyectable mejoran los defectos volumétricos estéticos de la región periorbitaria pero es necesaria mayor evidencia para determinar el tipo relleno más apropiado para esta condición.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las estrategias de inversión pairs trading se basan en desviaciones del precio entre pares de acciones correlacionadas y han sido ampliamente implementadas por fondos de inversión tomando posiciones largas y cortas en las acciones seleccionadas cuando surgen divergencias y obteniendo utilidad cerrando la posición al converger. Se describe un modelo de reversión a la media para analizar la dinámica que sigue el diferencial del precio entre acciones ordinarias y preferenciales de una misma empresa en el mismo mercado. La media de convergencia en el largo plazo es obtenida con un filtro de media móvil, posteriormente, los parámetros del modelo de reversión a la media se estiman mediante un filtro de Kalman bajo una formulación de estado espacio sobre las series históricas. Se realiza un backtesting a la estrategia de pairs trading algorítmico sobre el modelo propuesto indicando potenciales utilidades en mercados financieros que se observan por fuera del equilibrio. Aplicaciones de los resultados podrían mostrar oportunidades para mejorar el rendimiento de portafolios, corregir errores de valoración y sobrellevar mejor periodos de bajos retornos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis está dividida en dos partes: en la primera parte se presentan y estudian los procesos telegráficos, los procesos de Poisson con compensador telegráfico y los procesos telegráficos con saltos. El estudio presentado en esta primera parte incluye el cálculo de las distribuciones de cada proceso, las medias y varianzas, así como las funciones generadoras de momentos entre otras propiedades. Utilizando estas propiedades en la segunda parte se estudian los modelos de valoración de opciones basados en procesos telegráficos con saltos. En esta parte se da una descripción de cómo calcular las medidas neutrales al riesgo, se encuentra la condición de no arbitraje en este tipo de modelos y por último se calcula el precio de las opciones Europeas de compra y venta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los pacientes con enfermedad renal crónica (ERC) terminal se caracterizan por presentar alteraciones nutricionales que se perpetúan independiente de la modalidad de la Terapia de Reemplazo Renal (TRR). En la diálisis peritoneal, tanto APD (automated peritoneal dialysis) como la CAPD (continuous ambulatory peritoneal dialysis) existe un alto riesgo de pérdida de albúmina por el filtrado peritoneal, sin diferencias claras en el estatus nutricional. El presente estudio caracteriza el estado nutricional de los pacientes incidentes en diálisis peritoneal de RTS Bogotá Regional 1, con un seguimiento de un año, para conocer los cambios en las variables nutricionales. Se realizó un estudio de cohortes retrospectivo, analizando 2 grupos según el tipo de diálisis peritoneal escogida (APD o CAPD), con un análisis análisis descriptivo trimestral de las características nutricionales y posteriormente una comparación entre las 2 modalidades de TRR. Encontrando un promedio de edad de 60,8 años, la mayoría hombres y etiología principal nefropatía diabética. La mayoría de las variables nutricionales permanecieron sin cambios durante seguimiento. El Test de equilibrio peritoneal para glucosa y creatinina mostró valores promedio bajo y promedio alto y la mayoría de pacientes un rango nutricional normal. Al comparar APD y CAPD, solo se encontraron de forma aislada, diferencias significativas en algunas variables aisladas. Este es el primer estudio en Colombia que evalúa diferentes aspectos nutricionales en diálisis peritoneal. Aunque con limitaciones metodológicas, es un punto de partida para la realización de estudios más robustos que del estado nutricional de los pacientes en diálisis peritoneal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la búsqueda de preservar el medio ambiente y estandarizar la disposición final de los residuos generados, Sustain Cycle nace como un gestor de residuos de aceite vegetal usado, reforzando la carente oferta del mercado. Fortaleciendo el compromiso de los generadores de este residuo además de una reducción de costos, la creación de Sustain Cycle se desarrolla bajo la figura jurídica de Fundación, deduciendo en los contribuyentes del impuesto el valor de las donaciones efectuadas. El aporte ambiental se basa en minimizar el riesgo de una mala disposición en la red de alcantarillado y su componente social se enfoca en evitar la reutilización ilegal y perjudicial para el consumidor. Sustain Cycle se centra en la recolección, acopio, filtrado y comercialización del AVU generado por todos los establecimientos comerciales que produzcan alimentos como papas a la francesa, empanadas, buñuelos, churros, plátanos y demás productos que requieran del aceite para su cocción.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

When publishing information on the web, one expects it to reach all the people that could be interested in. This is mainly achieved with general purpose indexing and search engines like Google which is the most used today. In the particular case of geographic information (GI) domain, exposing content to mainstream search engines is a complex task that needs specific actions. In many occasions it is convenient to provide a web site with a specially tailored search engine. Such is the case for on-line dictionaries (wikipedia, wordreference), stores (amazon, ebay), and generally all those holding thematic databases. Due to proliferation of these engines, A9.com proposed a standard interface called OpenSearch, used by modern web browsers to manage custom search engines. Geographic information can also benefit from the use of specific search engines. We can distinguish between two main approaches in GI retrieval information efforts: Classical OGC standardization on one hand (CSW, WFS filters), which are very complex for the mainstream user, and on the other hand the neogeographer’s approach, usually in the form of specific APIs lacking a common query interface and standard geographic formats. A draft ‘geo’ extension for OpenSearch has been proposed. It adds geographic filtering for queries and recommends a set of simple standard response geographic formats, such as KML, Atom and GeoRSS. This proposal enables standardization while keeping simplicity, thus covering a wide range of use cases, in both OGC and the neogeography paradigms. In this article we will analyze the OpenSearch geo extension in detail and its use cases, demonstrating its applicability to both the SDI and the geoweb. Open source implementations will be presented as well

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The thesis involves the development and implementation of a new and robust control system based on permeability trends but at the same time capable of reducing aeration proportionally to permeate flux. Permeability was made a key parameter for directly comparing temporary changes in membrane performance. Transmembrane pressure and flux were gathered every 10 seconds and permeability values were automatically calculated; different mathematical algorithms were applied for the signal filtering of on-line data. Short term and long term permeability trends were compared once a day, and a control action was applied proportionally to the short term/long term permeability ratio without exceeding the aeration flow recommended by the membrane suppliers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aquesta tesi doctoral té quatre objectius fonamentals: 1) analitzar la legislació espanyola i catalana referent a l'escola unitària i cíclica -altrament dita escola rural, escola incompleta o escola petita- des de final del segle XIX fins avui; 2) analitzar la política educativa teòrica i real que s'ha aplicat a aquest tipus d'escola des del final del segle XIX fins avui; 3) analitzar l'evolució del mapa escolar de les comarques gironines -i més concretament l'evolució de l'escola unitària i cíclica- durant el període 1970-1998; i 4) copsar les característiques bàsiques de les escoles unitàries i cícliques de les comarques gironines que impartien docència durant el curs 1997-98. L'aconseguiment d'aquest objectius han estat precedits i condicionats a la vegada per l'emmarcament teòric que hem elaborat i per la metodologia que hem aplicat. Pel que fa als aspectes pròpiament teòrics hem establert a grosso modo dues reflexions bàsiques: a) l'escola unitària i cíclica ha experimentat un procés de transformació notable des del final de la dècada dels 70 fins avui dia, i b) l'escola unitària i cíclica té un gran potencial pedagògic, relacional i humà arran dels "límits" objectius que té. En l'emmarcament teòric afirmem que l'escola "petita" ha evolucionat -sempre en termes generals- d'una manera positiva gràcies a la confluència de diversos factors. D'una banda cal parlar del paper assumit per bona part dels "mestres rurals", els pares i mares, els moviments de renovació pedagògica, el Secretariat d'Escola Rural de Catalunya, els sindicats i alguns partits politics, l'administració educativa i darrerament, el Grup Interuniversitari d'Escola Rural. D'altra banda, no podem oblidar que la millora de l''escola unitària i cíclica també es deu, segons el nostre parer, a l'emergència d'un discurs positivitzador així com a la revalorització social dels pobles "petits" (amb pocs habitants) i especialment dels que tenen una estructura rural. En l'emmarcament teòric també afirmem que l'escola unitària i cíclica compta amb un escenari educatiu privilegiat per impartir una educació més flexible i més oberta. Això es deu, entre altres aspectes, a allò que durant molt de temps s'ha considerat límits estructurals o dèficits: nombre reduït d'alumnes, nombre reduït d'unitats o aules, pocs mestres, espai escolar escàs i a més, molt poc fragmentat, etc. Tots aquests elements, que constitueixen els trets bàsics i més essencials de les escoles unitàries i no tant de les cícliques més grans, propicien allò que B. Bemstein anomena: un text pedagògic integrador, una classificació feble del currículum, un emmarcament dèbil de les relacions socials i una pedagogia invisible. La metodologia que s'ha utilitzat per aconseguir els objectius que hem esmentat es caracteritza per ser plural i per combinar els mètodes quantitatius i els qualitatius. L'objectiu nº1 s'ha aconseguit a través del buidatge i de la interpretació de la normativa referida al nostre objecte d'estudi. L'objectiu nº2 s'ha aconseguit mitjançant l'anàlisi global de la normativa anteriorment comentada i a través de dades estadístiques que provenen de diversos censos escolars. L'objectiu nº3 s'ha acomplert mitjançant el buidatge de les Fulls d'Estadística i dels Fulls d'organització pedagògica (elaborats pel MEC pel Departament d'Ensenyament respectivament). I el darrer objectiu s'ha aconseguit mitjançant l'elaboració d'un qüestionari adreçat a tots els directors i als mestres en plantilla de les escoles unitàries i cícliques. També s'ha elaborat una entrevista semiestructurada que s'ha passat a vuit persones relacionades amb l'escola que aquí ens ocupa. I per últim, també s'ha practicat l'observació participant en una dotzena de centres. Les principals conclusions que hem obtingut -seguint l'orde dels objectius i considerant el que hem exposat en parlar de l'emmarcament teòric són les següents: 1) La política educativa teòrica sobre l'escola unitària i cíclica s'estructura, pel que fa a l'àmbit de l'Estat Espanyol, a l'entorn de set períodes: i) 1838-1910. Des de les instancies governamentals s'accepta aquest tipus d'escola per bé que s'estableixen diferències notables entre les escoles "petites" del món rural i les del món urbà. ii) 1910-1931. S'inicia una política educativa poc favorable perquè s'insta a la graduació de les escoles unitàries i cícliques, malgrat ho facin d'una manera poc ortodoxa. iii) 1931-1939. La política de construccions escolars de la República contempla i fins i tot discrimina d'una manera positiva les escoles incompletes. iv) 1939-1955. EI franquisme de la postguerra tolera, almenys de manera oficial, la presencia i la construcció de noves escoles "petites" per bé que a mesura que s'avança només preveu que es construeixin en el medi rural. v) 1955-1970. S'inicia un procés d'asfíxia que acaba prohibint la construcció d'escoles incompletes. vi) 1971-1982. S'aguditza la política del període anterior. vii) 1982-1995. S'enceta . una política educativa sensible amb l'escola unitària I cíclica. Pel que fa a Catalunya, la política educativa teòrica s'estructura en dos períodes: a) 1981-1987. Es projecta una política més aviat grisa i poc ambiciosa, i b) 1987 fins als nostres dies. Desenvolupament d'una política que, en alguns aspectes, es mostra a favor de l'escola "petita". 2) Malgrat que durant molt temps l'escola unitària cíclica, tant en l'àmbit espanyol com en el català, no hagi tingut una política teòrica favorable ha perdurat fins el dia d'avui. Per fer-nos una idea del que ha representat aquest tipus de centres pensem que són significatives les afirmacions següents: i) L'escola unitària i cíclica és l'única escola pública que existeix a l'Estat espanyol fins al final del segle XIX, ii) L'escola unitària i cíclica augmenta de manera progressivament dades absolutes- fins el 1935, iii) L'escola unitària i cíclica és el tipus de centre més representat -considerant la resta de centres- fins al final de la dècada dels 60. 3) Durant el període 1970-1998 constatem que el mapa escolar de les comarques gironines s'ha transformat notablement arran, tal com succeeix en el conjunt de l'Estat espanyol, de l'expansió progressiva de l'escola graduada o completa. Al curs 1970-71 les comarques gironines tenien 34 escoles graduades (que representaven el 10,9% dels centres públics gironins) i 279 escoles incompletes (149 escoles cícliques 1130 d'unitàries que representaven el 89,1% del total). Al curs 1997-98, en canvi, hem comptabilitzat 111 escoles completes (54,7% dels centres públics) i 92 d'incompletes (72 escoles cícliques i 20 d'unitàries que representen el 45,3%). Malgrat aquesta davallada cal fer pal·lès que avui dia l'escola unitària i cíclica és majoritària (representa el 50% o més dels centres públics) en quatre de les comarques gironines: l'Alt Empordà, el Baix Empordà, la Garrotxa i el Pla de l'Estany. 4) Pel que fa al darrer objectiu, així com els dos aspectes principals que hem plantejat en el marc teòric arribem a les conclusions següents: L'escola unitària i cíclica de les comarques gironines si bé és cert que en termes generals ha millorat notablement -ha millorat la infraestructura, ha incrementat el material didàctic, ha incorporat mestres especialistes, etc.- no ha assolit encara la plena normalització. Avui dia encara trobem escoles que per deixadesa de l'ajuntament no tenen telèfon, l'edifici no es troba en bones condicions, el pati no reuneix les condicions mínimes, etc. D'altra banda, més del 90% d'aquests centres no disposen de mestre d'educació especial. També considerem important remarcar el fet que una part considerable dels centres estudiants no tenen serveis paraescolars de primera necessitat: el 50% no té menjador, el 72,7% no té llar d'infants i el 76,2% no té transport escolar. Per acabar, només cal dir que si bé l'escola incompleta de les comarques gironines imparteix una educació de qualitat i renovadora, no totes les escoles exploten al màxim les potencialitats educatives i relacionals que els atribuïm en l'emmarcament teòric. Conseqüentment no totes apliquen una pedagogia invisible en el sentit Bemstenià del terme. Si bé el 75% dels centres utilitzen, de manera parcial, una modalitat de transmissió difusa perquè utilitzen una pedagogia activa, no podem oblidar que només una minoria -que no arriba al 3%- s'atreveix a prescindir -i només en determinades circumstàncies- dels llibres de text. Les relacions de poder, de jerarquia, i control només són difuses en unes poques escoles ja que l'elaboració de les normes i l'aplicació de les sancions corre a càrrec del mestre en el 75,7% i en el 58% dels centres respectivament. Les regles de seqüència són flexibles en el 68% dels centres perquè adapten el ritme d'aprenentatge a l'especificitat de cada alumne, però molt poques escoles, el 12,4%, són les que alteren amb certa assiduïtat l'ordre del currículum.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis proposes a solution to the problem of estimating the motion of an Unmanned Underwater Vehicle (UUV). Our approach is based on the integration of the incremental measurements which are provided by a vision system. When the vehicle is close to the underwater terrain, it constructs a visual map (so called "mosaic") of the area where the mission takes place while, at the same time, it localizes itself on this map, following the Concurrent Mapping and Localization strategy. The proposed methodology to achieve this goal is based on a feature-based mosaicking algorithm. A down-looking camera is attached to the underwater vehicle. As the vehicle moves, a sequence of images of the sea-floor is acquired by the camera. For every image of the sequence, a set of characteristic features is detected by means of a corner detector. Then, their correspondences are found in the next image of the sequence. Solving the correspondence problem in an accurate and reliable way is a difficult task in computer vision. We consider different alternatives to solve this problem by introducing a detailed analysis of the textural characteristics of the image. This is done in two phases: first comparing different texture operators individually, and next selecting those that best characterize the point/matching pair and using them together to obtain a more robust characterization. Various alternatives are also studied to merge the information provided by the individual texture operators. Finally, the best approach in terms of robustness and efficiency is proposed. After the correspondences have been solved, for every pair of consecutive images we obtain a list of image features in the first image and their matchings in the next frame. Our aim is now to recover the apparent motion of the camera from these features. Although an accurate texture analysis is devoted to the matching pro-cedure, some false matches (known as outliers) could still appear among the right correspon-dences. For this reason, a robust estimation technique is used to estimate the planar transformation (homography) which explains the dominant motion of the image. Next, this homography is used to warp the processed image to the common mosaic frame, constructing a composite image formed by every frame of the sequence. With the aim of estimating the position of the vehicle as the mosaic is being constructed, the 3D motion of the vehicle can be computed from the measurements obtained by a sonar altimeter and the incremental motion computed from the homography. Unfortunately, as the mosaic increases in size, image local alignment errors increase the inaccuracies associated to the position of the vehicle. Occasionally, the trajectory described by the vehicle may cross over itself. In this situation new information is available, and the system can readjust the position estimates. Our proposal consists not only in localizing the vehicle, but also in readjusting the trajectory described by the vehicle when crossover information is obtained. This is achieved by implementing an Augmented State Kalman Filter (ASKF). Kalman filtering appears as an adequate framework to deal with position estimates and their associated covariances. Finally, some experimental results are shown. A laboratory setup has been used to analyze and evaluate the accuracy of the mosaicking system. This setup enables a quantitative measurement of the accumulated errors of the mosaics created in the lab. Then, the results obtained from real sea trials using the URIS underwater vehicle are shown.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The human visual ability to perceive depth looks like a puzzle. We perceive three-dimensional spatial information quickly and efficiently by using the binocular stereopsis of our eyes and, what is mote important the learning of the most common objects which we achieved through living. Nowadays, modelling the behaviour of our brain is a fiction, that is why the huge problem of 3D perception and further, interpretation is split into a sequence of easier problems. A lot of research is involved in robot vision in order to obtain 3D information of the surrounded scene. Most of this research is based on modelling the stereopsis of humans by using two cameras as if they were two eyes. This method is known as stereo vision and has been widely studied in the past and is being studied at present, and a lot of work will be surely done in the future. This fact allows us to affirm that this topic is one of the most interesting ones in computer vision. The stereo vision principle is based on obtaining the three dimensional position of an object point from the position of its projective points in both camera image planes. However, before inferring 3D information, the mathematical models of both cameras have to be known. This step is known as camera calibration and is broadly describes in the thesis. Perhaps the most important problem in stereo vision is the determination of the pair of homologue points in the two images, known as the correspondence problem, and it is also one of the most difficult problems to be solved which is currently investigated by a lot of researchers. The epipolar geometry allows us to reduce the correspondence problem. An approach to the epipolar geometry is describes in the thesis. Nevertheless, it does not solve it at all as a lot of considerations have to be taken into account. As an example we have to consider points without correspondence due to a surface occlusion or simply due to a projection out of the camera scope. The interest of the thesis is focused on structured light which has been considered as one of the most frequently used techniques in order to reduce the problems related lo stereo vision. Structured light is based on the relationship between a projected light pattern its projection and an image sensor. The deformations between the pattern projected into the scene and the one captured by the camera, permits to obtain three dimensional information of the illuminated scene. This technique has been widely used in such applications as: 3D object reconstruction, robot navigation, quality control, and so on. Although the projection of regular patterns solve the problem of points without match, it does not solve the problem of multiple matching, which leads us to use hard computing algorithms in order to search the correct matches. In recent years, another structured light technique has increased in importance. This technique is based on the codification of the light projected on the scene in order to be used as a tool to obtain an unique match. Each token of light is imaged by the camera, we have to read the label (decode the pattern) in order to solve the correspondence problem. The advantages and disadvantages of stereo vision against structured light and a survey on coded structured light are related and discussed. The work carried out in the frame of this thesis has permitted to present a new coded structured light pattern which solves the correspondence problem uniquely and robust. Unique, as each token of light is coded by a different word which removes the problem of multiple matching. Robust, since the pattern has been coded using the position of each token of light with respect to both co-ordinate axis. Algorithms and experimental results are included in the thesis. The reader can see examples 3D measurement of static objects, and the more complicated measurement of moving objects. The technique can be used in both cases as the pattern is coded by a single projection shot. Then it can be used in several applications of robot vision. Our interest is focused on the mathematical study of the camera and pattern projector models. We are also interested in how these models can be obtained by calibration, and how they can be used to obtained three dimensional information from two correspondence points. Furthermore, we have studied structured light and coded structured light, and we have presented a new coded structured light pattern. However, in this thesis we started from the assumption that the correspondence points could be well-segmented from the captured image. Computer vision constitutes a huge problem and a lot of work is being done at all levels of human vision modelling, starting from a)image acquisition; b) further image enhancement, filtering and processing, c) image segmentation which involves thresholding, thinning, contour detection, texture and colour analysis, and so on. The interest of this thesis starts in the next step, usually known as depth perception or 3D measurement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La comunitat científica que treballa en Intel·ligència Artificial (IA) ha dut a terme una gran quantitat de treball en com la IA pot ajudar a les persones a trobar el que volen dins d'Internet. La idea dels sistemes recomanadors ha estat extensament acceptada pels usuaris. La tasca principal d'un sistema recomanador és localitzar ítems, fonts d'informació i persones relacionades amb els interessos i preferències d'una persona o d'un grup de persones. Això comporta la construcció de models d'usuari i l'habilitat d'anticipar i predir les preferències de l'usuari. Aquesta tesi està focalitzada en l'estudi de tècniques d'IA que millorin el rendiment dels sistemes recomanadors. Inicialment, s'ha dut a terme un anàlisis detallat de l'actual estat de l'art en aquest camp. Aquest treball ha estat organitzat en forma de taxonomia on els sistemes recomanadors existents a Internet es classifiquen en 8 dimensions generals. Aquesta taxonomia ens aporta una base de coneixement indispensable pel disseny de la nostra proposta. El raonament basat en casos (CBR) és un paradigma per aprendre i raonar a partir de la experiència adequat per sistemes recomanadors degut als seus fonaments en el raonament humà. Aquesta tesi planteja una nova proposta de CBR aplicat al camp de la recomanació i un mecanisme d'oblit per perfils basats en casos que controla la rellevància i edat de les experiències passades. Els resultats experimentals demostren que aquesta proposta adapta millor els perfils als usuaris i soluciona el problema de la utilitat que pateixen el sistemes basats en CBR. Els sistemes recomanadors milloren espectacularment la qualitat dels resultats quan informació sobre els altres usuaris és utilitzada quan es recomana a un usuari concret. Aquesta tesi proposa l'agentificació dels sistemes recomanadors per tal de treure profit de propietats interessants dels agents com ara la proactivitat, la encapsulació o l'habilitat social. La col·laboració entre agents es realitza a partir del mètode de filtratge basat en la opinió i del mètode col·laboratiu de filtratge a partir de confiança. Els dos mètodes es basen en un model social de confiança que fa que els agents siguin menys vulnerables als altres quan col·laboren. Els resultats experimentals demostren que els agents recomanadors col·laboratius proposats milloren el rendiment del sistema mentre que preserven la privacitat de les dades personals de l'usuari. Finalment, aquesta tesi també proposa un procediment per avaluar sistemes recomanadors que permet la discussió científica dels resultats. Aquesta proposta simula el comportament dels usuaris al llarg del temps basat en perfils d'usuari reals. Esperem que aquesta metodologia d'avaluació contribueixi al progrés d'aquesta àrea de recerca.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El treball desenvolupat en aquesta tesi presenta un profund estudi i proveïx solucions innovadores en el camp dels sistemes recomanadors. Els mètodes que usen aquests sistemes per a realitzar les recomanacions, mètodes com el Filtrat Basat en Continguts (FBC), el Filtrat Col·laboratiu (FC) i el Filtrat Basat en Coneixement (FBC), requereixen informació dels usuaris per a predir les preferències per certs productes. Aquesta informació pot ser demogràfica (Gènere, edat, adreça, etc), o avaluacions donades sobre algun producte que van comprar en el passat o informació sobre els seus interessos. Existeixen dues formes d'obtenir aquesta informació: els usuaris ofereixen explícitament aquesta informació o el sistema pot adquirir la informació implícita disponible en les transaccions o historial de recerca dels usuaris. Per exemple, el sistema recomanador de pel·lícules MovieLens (http://movielens.umn.edu/login) demana als usuaris que avaluïn almenys 15 pel·lícules dintre d'una escala de * a * * * * * (horrible, ...., ha de ser vista). El sistema genera recomanacions sobre la base d'aquestes avaluacions. Quan els usuaris no estan registrat en el sistema i aquest no té informació d'ells, alguns sistemes realitzen les recomanacions tenint en compte l'historial de navegació. Amazon.com (http://www.amazon.com) realitza les recomanacions tenint en compte les recerques que un usuari a fet o recomana el producte més venut. No obstant això, aquests sistemes pateixen de certa falta d'informació. Aquest problema és generalment resolt amb l'adquisició d'informació addicional, se li pregunta als usuaris sobre els seus interessos o es cerca aquesta informació en fonts addicionals. La solució proposada en aquesta tesi és buscar aquesta informació en diverses fonts, específicament aquelles que contenen informació implícita sobre les preferències dels usuaris. Aquestes fonts poden ser estructurades com les bases de dades amb informació de compres o poden ser no estructurades com les pàgines web on els usuaris deixen la seva opinió sobre algun producte que van comprar o posseïxen. Nosaltres trobem tres problemes fonamentals per a aconseguir aquest objectiu: 1 . La identificació de fonts amb informació idònia per als sistemes recomanadors. 2 . La definició de criteris que permetin la comparança i selecció de les fonts més idònies. 3 . La recuperació d'informació de fonts no estructurades. En aquest sentit, en la tesi proposada s'ha desenvolupat: 1 . Una metodologia que permet la identificació i selecció de les fonts més idònies. Criteris basats en les característiques de les fonts i una mesura de confiança han estat utilitzats per a resoldre el problema de la identificació i selecció de les fonts. 2 . Un mecanisme per a recuperar la informació no estructurada dels usuaris disponible en la web. Tècniques de Text Mining i ontologies s'han utilitzat per a extreure informació i estructurar-la apropiadament perquè la utilitzin els recomanadors. Les contribucions del treball desenvolupat en aquesta tesi doctoral són: 1. Definició d'un conjunt de característiques per a classificar fonts rellevants per als sistemes recomanadors 2. Desenvolupament d'una mesura de rellevància de les fonts calculada sobre la base de les característiques definides 3. Aplicació d'una mesura de confiança per a obtenir les fonts més fiables. La confiança es definida des de la perspectiva de millora de la recomanació, una font fiable és aquella que permet millorar les recomanacions. 4. Desenvolupament d'un algorisme per a seleccionar, des d'un conjunt de fonts possibles, les més rellevants i fiable utilitzant les mitjanes esmentades en els punts previs. 5. Definició d'una ontologia per a estructurar la informació sobre les preferències dels usuaris que estan disponibles en Internet. 6. Creació d'un procés de mapatge que extreu automàticament informació de les preferències dels usuaris disponibles en la web i posa aquesta informació dintre de l'ontologia. Aquestes contribucions permeten aconseguir dos objectius importants: 1 . Millorament de les recomanacions usant fonts d'informació alternatives que sigui rellevants i fiables. 2 . Obtenir informació implícita dels usuaris disponible en Internet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

One of the main challenges for developers of new human-computer interfaces is to provide a more natural way of interacting with computer systems, avoiding excessive use of hand and finger movements. In this way, also a valuable alternative communication pathway is provided to people suffering from motor disabilities. This paper describes the construction of a low cost eye tracker using a fixed head setup. Therefore a webcam, laptop and an infrared lighting source were used together with a simple frame to fix the head of the user. Furthermore, detailed information on the various image processing techniques used for filtering the centre of the pupil and different methods to calculate the point of gaze are discussed. An overall accuracy of 1.5 degrees was obtained while keeping the hardware cost of the device below 100 euros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The structure of turbulent flow over large roughness consisting of regular arrays of cubical obstacles is investigated numerically under constant pressure gradient conditions. Results are analysed in terms of first- and second-order statistics, by visualization of instantaneous flow fields and by conditional averaging. The accuracy of the simulations is established by detailed comparisons of first- and second-order statistics with wind-tunnel measurements. Coherent structures in the log region are investigated. Structure angles are computed from two-point correlations, and quadrant analysis is performed to determine the relative importance of Q2 and Q4 events (ejections and sweeps) as a function of height above the roughness. Flow visualization shows the existence of low-momentum regions (LMRs) as well as vortical structures throughout the log layer. Filtering techniques are used to reveal instantaneous examples of the association of the vortices with the LMRs, and linear stochastic estimation and conditional averaging are employed to deduce their statistical properties. The conditional averaging results reveal the presence of LMRs and regions of Q2 and Q4 events that appear to be associated with hairpin-like vortices, but a quantitative correspondence between the sizes of the vortices and those of the LMRs is difficult to establish; a simple estimate of the ratio of the vortex width to the LMR width gives a value that is several times larger than the corresponding ratio over smooth walls. The shape and inclination of the vortices and their spatial organization are compared to recent findings over smooth walls. Characteristic length scales are shown to scale linearly with height in the log region. Whilst there are striking qualitative similarities with smooth walls, there are also important differences in detail regarding: (i) structure angles and sizes and their dependence on distance from the rough surface; (ii) the flow structure close to the roughness; (iii) the roles of inflows into and outflows from cavities within the roughness; (iv) larger vortices on the rough wall compared to the smooth wall; (v) the effect of the different generation mechanism at the wall in setting the scales of structures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In principle the global mean geostrophic surface circulation of the ocean can be diagnosed by subtracting a geoid from a mean sea surface (MSS). However, because the resulting mean dynamic topography (MDT) is approximately two orders of magnitude smaller than either of the constituent surfaces, and because the geoid is most naturally expressed as a spectral model while the MSS is a gridded product, in practice complications arise. Two algorithms for combining MSS and satellite-derived geoid data to determine the ocean’s mean dynamic topography (MDT) are considered in this paper: a pointwise approach, whereby the gridded geoid height field is subtracted from the gridded MSS; and a spectral approach, whereby the spherical harmonic coefficients of the geoid are subtracted from an equivalent set of coefficients representing the MSS, from which the gridded MDT is then obtained. The essential difference is that with the latter approach the MSS is truncated, a form of filtering, just as with the geoid. This ensures that errors of omission resulting from the truncation of the geoid, which are small in comparison to the geoid but large in comparison to the MDT, are matched, and therefore negated, by similar errors of omission in the MSS. The MDTs produced by both methods require additional filtering. However, the spectral MDT requires less filtering to remove noise, and therefore it retains more oceanographic information than its pointwise equivalent. The spectral method also results in a more realistic MDT at coastlines. 1. Introduction An important challenge in oceanography is the accurate determination of the ocean’s time-mean dynamic topography (MDT). If this can be achieved with sufficient accuracy for combination with the timedependent component of the dynamic topography, obtainable from altimetric data, then the resulting sum (i.e., the absolute dynamic topography) will give an accurate picture of surface geostrophic currents and ocean transports.