7 resultados para Anotação de vídeo
em Universitat de Girona, Spain
Resumo:
L’objectiu d’aquest PFC és estudiar la branca de la detecció d’objectes en vídeos segons el seu moviment. Per fer-ho es crearà un algorisme que sigui capaç de tractar un vídeo, calculant el nombre d’objectes de l’escena i quina és la posició de cada un d’aquests. L’algorisme ha de ser capaç de trobar un conjunt de regions útils i a partir d’aquest, separar-lo en diferents grups, cada un representant un objecte en moviment. La finalitat d’aquest projecte és l’estudi de la detecció d’objectes en vídeo. Intentarem crear un algorisme que ens permeti dur a terme aquest estudi i treure’n conclusions. Pretenem fer un algorisme, o un conjunt d’algorismes, en Matlab que sigui capaç de donat qualsevol vídeo, pugui retornar un conjunt de imatges, o un vídeo, amb els diferents objectes de l’escena destacats. Es faran proves en diferents situacions, des de objectes sintètics amb un moviment clarament definit, fins a proves en seqüències reals extretes de diferents pel•lícules. Per últim es pretén comprovar l’eficiència d’aquest. Ja que el projecte s’emmarca en la línia de recerca de robòtica i visió per computador, la tasca principal serà la manipulació d’imatges. Per tant farem servir el Matlab, ja que les imatges no son res més que matrius i aquest programa permet el càlcul vectorial i matricial d’una manera senzilla i realment eficient
Resumo:
El principal objectiu d’aquest projecte és aconseguir classificar diferents vídeos d’esports segons la seva categoria. Els cercadors de text creen un vocabulari segons el significat de les diferents paraules per tal de poder identificar un document. En aquest projecte es va fer el mateix però mitjançant paraules visuals. Per exemple, es van intentar englobar com a una única paraula les diferents rodes que apareixien en els cotxes de rally. A partir de la freqüència amb què apareixien les paraules dels diferents grups dins d’una imatge vàrem crear histogrames de vocabulari que ens permetien tenir una descripció de la imatge. Per classificar un vídeo es van utilitzar els histogrames que descrivien els seus fotogrames. Com que cada histograma es podia considerar un vector de valors enters vàrem optar per utilitzar una màquina classificadora de vectors: una Support vector machine o SVM
Resumo:
L’objectiu d’aquest treball és validar els criteris de Johnson i Johnson (1992) com a indicadors d’avaluació d’actituds cooperatives. Ens proposem definir, contrastar i avaluar noves eines d’actuació. Volem analitzar i valorar algunes de les interaccions, que es produeixen en el desenvolupament d’actituds cooperatives, assenyalant els punts forts i febles observats a través de l’observació directa i amb l’ajuda de l’enregistrament de vídeo, què ens permetrà copsar de manera contrastable les interaccions verbals i no verbals dels alumnes, aspecte que a través de l’observació directa no és possible. És la nostra intenció intentar donar resposta a diversos interrogants respecte el nostre objecte d’estudi, oferint elements de reflexió i cercant criteris per avaluar les actituds cooperatives, assenyalant quins són els trets que s’observen en major o en menor grau en relació amb Johnson i Johnson en els estudiants de magisteri. Per centrar els objectius de la recerca tindrem en compte una triple perspectiva: - La perspectiva del professorat - la perspectiva de l’alumnat - La perspectiva de les activitats Pretenem relacionar cada un dels criteris de Johnson i Johnson amb indicadors observables i poder fer valoracions respecte allò que són capaços de fer i en relació quan tenen dificultats. Com a avaluació d’aquesta contrastació volem recollir prioritàriament aquelles consideracions que ens ajudin a establir un bon plantejament dels resultats. Com a professors en la formació inicial de futurs mestres, creiem que és fonamental fomentar estratègies d’acció cooperatives per afavorir un procés d’ensenyament més creatiu, més sòlid i més enriquidor, en la mesura que el professorat i l’alumnat s’impliquin en la construcció i transmissió del coneixement. La nostra proposta es troba dins del plantejament del nou model d’educació superior que comporta el procés de Convergència Europea, en el qual el principal protagonista és l’estudiant. Amb el treball que presentem volem oferir un al·licient i un estímul per promoure noves metodologies participatives en el mon universitari que fomentin noves actituds i consolidin els valors democràtics. És la nostra intenció reflexionar sobre la realitat actual dels nostres estudiants que en un futur no gaire llunyà hauran de ser educadors referents i competents
Resumo:
Peccata Mundi arrenca de la iniciativa del director de R+D+I de l'empresa Mas Parés, Jaume Juher, i l’artista plàstic Jaume Xifra, que l’any 2004 van decidir sumar a l’amistat que els uneix un objectiu: convergir en un sol projecte els reptes professionals que es plantejaven individualment des de cadascuna de les seves disciplines: l’art i la investigació gastronòmica. Posteriorment, a l'any 2005, s'incorporen al projecte els experts que constitueixen actualment el nucli central de treball: Josep Bel, expert en anàlisi sensorial i aplicació d'aromes; David Juher, matemàtic i professor de la UdG; Xavier de Palau, músic electrònic; Clara Perxachs, investigadora de la cultura del menjar; i Toni Botella, cuiner. A l'experiència gastronòmico-artística Peccata Mundi el participant tasta un seguit de plats i vins i valora les seves percepcions contestant un qüestionari. Les dades d'aquest qüestionari s'utilitzen, a través d'unes transformacions regides per criteris neurològics, matemàtics, antropològics, etc., per produir unes dades numèriques que seran l'entrada a una aplicació que les farà servir per generar un vídeo amb música d'una durada aproximadament de 2 minuts. Aquest vídeo, que consta d'imatges fractals en moviment i d'una música de fons, generada també utilitzant funcions de comportament caòtic, és el retrat audiovisual de l'experiència sensorial del participant. El projecte consisteix a implementar tota la logística informàtica de l’experiència sensorial Peccata Mundi: dissenyar les aplicacions d'entrada de dades, tractament de la base de dades, processament de les dades del qüestionari, generació del vídeo i la música i producció de l'arxiu audiovisual que finalment el participant s'emporta gravat en suport DVD
Resumo:
En aquest projecte es pretén utilitzar mètodes coneguts com ara Viola&Jones (detecció) i EigenFaces (reconeixement) per a detectar i reconèixer cares dintre d’imatges de vídeo. Per a aconseguir aquesta tasca cal partir d’un conjunt de dades d’entrenament per a cada un dels mètodes (base de dades formada per imatges i anotacions manuals). A partir d’aquí, l’aplicació, ha de ser capaç de detectar cares en noves imatges i reconèixer-les (identificar de quina cara es tracta)
Resumo:
We investigate whether dimensionality reduction using a latent generative model is beneficial for the task of weakly supervised scene classification. In detail, we are given a set of labeled images of scenes (for example, coast, forest, city, river, etc.), and our objective is to classify a new image into one of these categories. Our approach consists of first discovering latent ";topics"; using probabilistic Latent Semantic Analysis (pLSA), a generative model from the statistical text literature here applied to a bag of visual words representation for each image, and subsequently, training a multiway classifier on the topic distribution vector for each image. We compare this approach to that of representing each image by a bag of visual words vector directly and training a multiway classifier on these vectors. To this end, we introduce a novel vocabulary using dense color SIFT descriptors and then investigate the classification performance under changes in the size of the visual vocabulary, the number of latent topics learned, and the type of discriminative classifier used (k-nearest neighbor or SVM). We achieve superior classification performance to recent publications that have used a bag of visual word representation, in all cases, using the authors' own data sets and testing protocols. We also investigate the gain in adding spatial information. We show applications to image retrieval with relevance feedback and to scene classification in videos
Resumo:
A common problem in video surveys in very shallow waters is the presence of strong light fluctuations, due to sun light refraction. Refracted sunlight casts fast moving patterns, which can significantly degrade the quality of the acquired data. Motivated by the growing need to improve the quality of shallow water imagery, we propose a method to remove sunlight patterns in video sequences. The method exploits the fact that video sequences allow several observations of the same area of the sea floor, over time. It is based on computing the image difference between a given reference frame and the temporal median of a registered set of neighboring images. A key observation is that this difference will have two components with separable spectral content. One is related to the illumination field (lower spatial frequencies) and the other to the registration error (higher frequencies). The illumination field, recovered by lowpass filtering, is used to correct the reference image. In addition to removing the sunflickering patterns, an important advantage of the approach is the ability to preserve the sharpness in corrected image, even in the presence of registration inaccuracies. The effectiveness of the method is illustrated in image sets acquired under strong camera motion containing non-rigid benthic structures. The results testify the good performance and generality of the approach