1000 resultados para Esports -- Estadístiques -- Processament de dades
Resumo:
Aquest projecte representa una recerca en les classes basat en l'eficàcia de la combinació entre activitats de lectura i d'escriptura, textos i tecnologia. Presenta un currículum bé dissenyat que ofereix material als professors per a planificar la instrucció en primària i en pre-escolar. Els materials són una selecció de textos considerats com uns mediadors de la instrucció. L’estudi proporciona un model preliminar per a un currículum basat en textos que ajuden en la lectura i escriptura i en les habilitats inicials. Les lectures són llibres tipus àlbum. Dues dècades en el camp dels llibres infantils, il•lustradors, autors, editors han prestat una major atenció a les maneres del procés d'adquisició de la lectura i de l'escriptura. Aquest estudi representa un pas per a incloure aquest tipus de materials de lectura. Tres característiques de text s'han identificat: a) el contingut lingüístic a nivell de la paraula, i a nivell de l'estructura del text (repeticions dels patrons sintàctics i textuals); b) la diversitat de gènere dels llibres (llibres de narració i d'informació); i c) el control de la càrrega cognitiva (densitat de paraules, repetició i predicció del contingut i relació il•lustració-text). Els participants en aquest estudi eren 25 nens de primer curs i 23 nens pre-escolars i els seus professors (CEIP Lavinia de Barcelona). L'escola va ser seleccionada per la seva disposició a l'ús de tecnologies i els seus interessos de participar en aquest projecte experimental. Durant l'any 2007-08 van desenvolupar aquests textos, les activitats i el programa de tecnologia (Veure www.princepsiprinceses.blogspot.com, i www.conills.blogspot.com). Els efectes de la qualitat instruccional, de la selecció de textos i de l'ús de la tecnologia s'han d'observar en les diferències en les pràctiques de les professores, en les habilitats dels nens i en l'ús de tecnologies en les sales de classe.
Resumo:
La finalitat del projecte CESCA és proporcionar a la comunitat educativa, al món editorial, a pedagogs, lingüistes i sociolingüistes informació sobre aspectes clau de la llengua escrita activa dels escolars de Catalunya al llarg de l’educació obligatòria. Amb aquest objectiu s’han recollit i processat 2.396 textos produïts per nens i nenes des de l’últim curs d’educació infantil (P5) fins a l’últim curs d’educació obligatòria (4t d’ESO). Els alumnes participants provenen de 30 escoles repartides per tota l’àrea geogràfica de Catalunya, majoritàriament de centres públics, encara que també han participat alguns centres concertats. Els vocabularis, així com els textos de diferents gèneres, estan digitalitzats i organitzats en la base de dades CesCa. Les dades derivades del processament dels vocabularis són consultables a la pàgina web d’accés públic: http://clic.ub.edu/cesca/. Una vegada lematitzades les realitzacions dels cinc dominis semàntics –aliments, activitats de lleure, peces de roba, trets de caràcter i fenòmens de la natura- representats en el vocabulari, s’ha observat que el nombre de lemes augmenta amb el curs escolar de manera sostinguda fins al començament de la secundària per disminuir posteriorment. El domini de trets de caràcter és el més ric en producció de lemes diferents i el domini d’activitats és el que presenta una més gran diversitat de variants. Dos dels resultats obtinguts posen de manifest una certa avantatge del bilingüisme instal•lat al nostre entorn: la més gran quantitat de lemes diferents es troba entre els informants que parlen castellà i català i que diuen parlar català des de sempre. Moltes de les distincions acceptades dins del domini lexicogràfic són difícils d’aplicar a mostres de llengua produïda per parlants en procés d’aprenentatge en un entorn plurilingüe.
Resumo:
JPEG2000 és un estàndard de compressió d’imatges que utilitza la transformada wavelet i, posteriorment, una quantificació uniforme dels coeficients amb dead-zone. Els coeficients wavelet presenten certes dependències tant estadístiques com visuals. Les dependències estadístiques es tenen en compte a l'esquema JPEG2000, no obstant, no passa el mateix amb les dependències visuals. En aquest treball, es pretén trobar una representació més adaptada al sistema visual que la que proporciona JPEG2000 directament. Per trobar-la utilitzarem la normalització divisiva dels coeficients, tècnica que ja ha demostrat resultats tant en decorrelació estadística de coeficients com perceptiva. Idealment, el que es voldria fer és reconvertir els coeficients a un espai de valors en els quals un valor més elevat dels coeficients impliqui un valor més elevat d'aportació visual, i utilitzar aquest espai de valors per a codificar. A la pràctica, però, volem que el nostre sistema de codificació estigui integrat a un estàndard. És per això que utilitzarem JPEG2000, estàndard de la ITU que permet una elecció de les distorsions en la codificació, i utilitzarem la distorsió en el domini de coeficients normalitzats com a mesura de distorsió per a escollir quines dades s'envien abans.
Resumo:
En aquest estudi s’ha determinat la deposició atmosfèrica de metalls pesants a partir dels bioindicadors Xanthoria parietina (liquen) i Hypnum cupressiforme (molsa), en 16 punts de mostreig repartits per la zona on s’ubicarà el futur parc natural de les Muntanyes de Prades (Tarragona). A partir de la comparació de les concentracions obtingudes en aquest treball amb les d’altres estudis de plantejament equiparable, es va comprovar que la majoria de valors de concentració dels metalls eren similars als d’altres zones geogràfiques estudiades, a excepció del crom i el níquel, que presentaven valors clarament més elevats. A partir de proves estadístiques (ANOVA, regressions múltiples) es va determinar que existien diferències significatives entre les concentracions de metalls dels diferents punts de mostreig. També es van detectar correlacions significatives entre les concentracions dels punts de mostreig i la distància d’aquests respecte els focus potencials de contaminació que s’havien considerat prèviament. Amb les dades obtingudes a partir un petit anàlisi de la riquesa liquènica dels punts de mostreig, es va disposar d’informació extra per poder avaluar les fonts i el patró de distribució d’aquests contaminants.
Resumo:
Las aplicaciones de alineamiento múltiple de secuencias son prototipos de aplicaciones que requieren elevada potencia de cómputo y memoria. Se destacan por la relevancia científica que tienen los resultados que brindan a investigaciones científicas en el campo de la biomedicina, genética y farmacología. Las aplicaciones de alineamiento múltiple tienen la limitante de que no son capaces de procesar miles de secuencias, por lo que se hace necesario crear un modelo para resolver la problemática. Analizando el volumen de datos que se manipulan en el área de las ciencias biológica y la complejidad de los algoritmos de alineamiento de secuencias, la única vía de solución del problema es a través de la utilización de entornos de cómputo paralelos y la computación de altas prestaciones. La investigación realizada por nosotros tiene como objetivo la creación de un modelo paralelo que le permita a los algoritmos de alineamiento múltiple aumentar el número de secuencias a procesar, tratando de mantener la calidad en los resultados para garantizar la precisión científica. El modelo que proponemos emplea como base la clusterización de las secuencias de entrada utilizando criterios biológicos que permiten mantener la calidad de los resultados. Además, el modelo se enfoca en la disminución del tiempo de cómputo y consumo de memoria. Para presentar y validar el modelo utilizamos T-Coffee, como plataforma de desarrollo e investigación. El modelo propuesto pudiera ser aplicado a cualquier otro algoritmo de alineamiento múltiple de secuencias.
Resumo:
La ponència fa una introducció sobre la teoria, els objectius i els problemes de la detecció i l'eliminació de registres duplicats en bases de dades bibliogràfiques. A continuació, s'explica el procés de creació del Catàleg Col.lectiu de les Universitats de Catalunya (CCUC) amb una breu introducció històrica. Finalment s'analitza i es descriu el procés d'elaboració i el funcionament del programa de detecció de duplicats del CCUC.
Resumo:
El trabajo expuesto en la presente memoria, forma parte de un proyecto de colaboración entre el Centro de Visión por Computador de la UAB y el Centro Joan Amades (ONCE), cuyo objetivo es la creación de recursos educativos que faciliten la integración de niños invidentes en las aulas. Se presenta el proceso de implementación de un intérprete y traductor de documentos escritos en Braille con contenido matemático y de texto, que permite a un profesor que no conozca el sistema Braille, la lectura de documentos creados por alumnos invidentes. Dicho intérprete forma parte de una herramienta que permite el reconocimiento de documentos escritos con una máquina Perkins.
Resumo:
Aquesta memoria resumeix el treball de final de carrera d’Enginyeria Superior d’Informàtica. Explicarà les principals raons que han motivat el projecte així com exemples que il·lustren l’aplicació resultant. En aquest cas el software intentarà resoldre la actual necessitat que hi ha de tenir dades de Ground Truth per als algoritmes de segmentació de text per imatges de color complexes. Tots els procesos seran explicats en els diferents capítols partint de la definició del problema, la planificació, els requeriments i el disseny fins a completar la il·lustració dels resultats del programa i les dades de Ground Truth resultants.
Resumo:
Este proyecto nace de la necesidad de realizar una integración de los sistemas informáticos de una empresa en una multinacional; las empresas disponen de servicios de outsourcing en sistemas de información. Al tratarse de una integración operativa, sólo trataremos de trasladar los servicios de centro de atención al usuario, soporte local y ofimática desde un outsourcing de servicios a otro, añadiendo los cambios de procesos necesarios para disponer de un único entorno de trabajo. El cambio de entorno de trabajo se ha de realizar sin perdida de disponibilidad ni de información.
Resumo:
Este proyecto se centra en el análisis de señales GPS, utilizando un receptor software desarrollado con Matlab en un proyecto de investigación para la Agencia Espacial Europea (ESA), llevado a cabo por parte del departamento de Telecomunicaciones e Ingeniería de Sistemas de la ETSE. Este software utiliza técnicas de procesado de señal de alta sensibilidad (HS-GNSS) que permite al usuario determinar su posición en entornos de difícil propagación como puede ser el caso de los escenarios interiores. Los datos experimentales se analizan en función del nivel de multipath que afecta a la señal de cada uno de los satélites, y la degradación que los escenarios interiores provocan en las señales, a causa del mobiliario, paredes, personas, etc. Para analizar los datos experimentales, se ha utilizado una métrica presentada en el congreso internacional EuCAP 2009, con la que es posible caracterizar las señales en función del nivel de multipath.
Resumo:
Sistema de fidelització de clients mitjançant bons d’hores que el client anirà recarregant i del que se li descomptaran les feines que se li vagin fent. També ha d’ajudar a assegurar-se el cobrament de les feines realitzades. L’aplicació és capaç de mantenir una cartera de clients amb el seu saldo de bons, fer les imposicions de diners i introduir els albarans de les feines produïdes. També mostra dades interessants perquè el gerent de l’empresa client pugui treure les estadístiques necessàries per explotar al màxim la capacitat de la seva empresa.
Resumo:
L’emplaçament del projecte es situa a un parc eòlic marítim, on es vol observar el vent a través del radar VAD, Velocity Azimuth Display, per poder controlar la velocitat de rotació dels aerogeneradors, i poder substituir els actuals anemòmetres. No ens centrarem en el control d’aquest, sinó que l’objectiu principal d’aquest projecte és analitzar el funcionament i processat de dades del VAD. Es proposaran, simularan i estudiaran noves tècniques d’estimació espectral per obtenir una millora important amb les mesures de velocitat, direcció i divergència del vent, per tal de construir un radar més robust a pertorbacions. A més a més, també il·lustrarem mapes eòlics obtinguts a partir de tot el processat.
Resumo:
Les estadístiques dels repositoris d'e-informació serveixen, entre d'altres, per consultar l'evolució de l'ús d'aquestes eines i per informar els seus usuaris de l'ús dels seus continguts. La ponència pretén donar resposta a algunes preguntes freqüents sobre aquest, com: estadístiques de què?, què és una consulta?, quins mecanismes de depuració s'apliquen?, etc. A més, descriu l'arquitectura i les característiques bàsiques de la seva implementació i fa un breu repàs de l'evolució de les estadístiques en aquests 10 anys de repositoris cooperatius.
Resumo:
Experiència sobre la identificació, la compilació i la posada a disposició dels usuaris dels recursos estadístics de temàtica social i econòmica utilitzats pels investigadors de la UPF. Es va fer un estudi d'identificació dels recursos utilitzats, de la seva procedència i de la font de finançament. Davant dels resultats es van iniciar dues línies d'actuació segons si les dades estadístiques eren d'accés lliure o de consulta restringida. Pel que fa als fitxers d'accés lliure, es va procedir a la instal·lació, conjuntament amb el Servei d’informàtica, dels fitxers en un servidor i possibilitar-ne l’accessibilitat a través de la xarxa UPF, es va elaborar una guia de desenvolupament de la col·lecció per aquests materials, per tal d’equilibrar el fons i respondre a les necessitats dels usuaris i es van fer diverses accions per millorar la recuperació del material a través del web i del catàleg de la Biblioteca. Pel que fa a les microdades van ser tractades apart tenint en compte les característiques especials d’aquest material, protegit per les lleis de protecció de dades personals. Es va crear una xarxa interna amb un sistema d’accés i control d’usuaris molt estricte, amb la col·laboració del Servei d’Informàtica, es va elaborar un circuit d'adquisició (amb negociacions amb les agències productores per signar llicències institucionals) i gestió interna dels materials. En conclusió: la Biblioteca, amb un actitud proactiva, es va anticipar a les necessitats dels investigadors i va donar-los resposta, tot va millorant la gestió i l'accessibilitat d'uns recursos -fitxers estadístics- tradicionalment molt restringits i racionalitzant processos i circuits.
Resumo:
El projecte ha consistit en la creació de gràfics estadístics de soroll d’Europa de forma automàtica amb tecnologies Open Source dins el visor Noise Map Viewer per Europa de l’ETC-LUSI. La llibreria utilitzada per fer aquest procés ha estat JFreeChart i el llenguatge de programació utilitzat ha estat Java (programació orientada a objectes) dins l’entorn de desenvolupament integrat Eclipse. La base de dades utilitzada ha estat PostgreSQL. Com a servidors s’han fet servir Apache (servidor HTTP) i Tomcat (servidor contenidor d’aplicacions). Un cop acabat el procés s’ha integrat dins de MapFish canviant el codi JavaScript corresponent de la web original.