852 resultados para Lexicografia -- Processament de dades
Resumo:
High Performance Computing is a rapidly evolving area of computer science which attends to solve complicated computational problems with the combination of computational nodes connected through high speed networks. This work concentrates on the networks problems that appear in such networks and specially focuses on the Deadlock problem that can decrease the efficiency of the communication or even destroy the balance and paralyze the network. Goal of this work is the Deadlock avoidance with the use of virtual channels, in the switches of the network where the problem appears. The deadlock avoidance assures that will not be loss of data inside network, having as result the increased latency of the served packets, due to the extra calculation that the switches have to make to apply the policy.
Resumo:
Gaps es un generador de aplicaciones sintéticas de estructura compuesta Master/Worker de pipelines. Para crear una aplicación sintética, el investigador utilizará Gaspar, que recibe un fichero de texto con los parámetros de la aplicación a generar: cantidad de workers, etapas, tamaño de mensaje a enviar, etc., y genera un fichero con las propiedades de cada etapa. A partir de estos datos, Gaps, que esta hecho en C con MPI, genera y ejecuta la aplicación paralela. Estas aplicaciones se utilizan para comprobar en un entorno real los estudios analíticos que constituyen el modelo de rendimiento y sintonización dinámica.
Resumo:
En termes de temps d'execució i ús de dades, les aplicacions paral·leles/distribuïdes poden tenir execucions variables, fins i tot quan s'empra el mateix conjunt de dades d'entrada. Existeixen certs aspectes de rendiment relacionats amb l'entorn que poden afectar dinàmicament el comportament de l'aplicació, tals com: la capacitat de la memòria, latència de la xarxa, el nombre de nodes, l'heterogeneïtat dels nodes, entre d'altres. És important considerar que l'aplicació pot executar-se en diferents configuracions de maquinari i el desenvolupador d'aplicacions no port garantir que els ajustaments de rendiment per a un sistema en particular continuïn essent vàlids per a d'altres configuracions. L'anàlisi dinàmica de les aplicacions ha demostrat ser el millor enfocament per a l'anàlisi del rendiment per dues raons principals. En primer lloc, ofereix una solució molt còmoda des del punt de vista dels desenvolupadors mentre que aquests dissenyen i evaluen les seves aplicacions paral·leles. En segon lloc, perquè s'adapta millor a l'aplicació durant l'execució. Aquest enfocament no requereix la intervenció de desenvolupadors o fins i tot l'accés al codi font de l'aplicació. S'analitza l'aplicació en temps real d'execució i es considra i analitza la recerca dels possibles colls d'ampolla i optimitzacions. Per a optimitzar l'execució de l'aplicació bioinformàtica mpiBLAST, vam analitzar el seu comportament per a identificar els paràmetres que intervenen en el rendiment d'ella, com ara: l'ús de la memòria, l'ús de la xarxa, patrons d'E/S, el sistema de fitxers emprat, l'arquitectura del processador, la grandària de la base de dades biològica, la grandària de la seqüència de consulta, la distribució de les seqüències dintre d'elles, el nombre de fragments de la base de dades i/o la granularitat dels treballs assignats a cada procés. El nostre objectiu és determinar quins d'aquests paràmetres tenen major impacte en el rendiment de les aplicacions i com ajustar-los dinàmicament per a millorar el rendiment de l'aplicació. Analitzant el rendiment de l'aplicació mpiBLAST hem trobat un conjunt de dades que identifiquen cert nivell de serial·lització dintre l'execució. Reconeixent l'impacte de la caracterització de les seqüències dintre de les diferents bases de dades i una relació entre la capacitat dels workers i la granularitat de la càrrega de treball actual, aquestes podrien ser sintonitzades dinàmicament. Altres millores també inclouen optimitzacions relacionades amb el sistema de fitxers paral·lel i la possibilitat d'execució en múltiples multinucli. La grandària de gra de treball està influenciat per factors com el tipus de base de dades, la grandària de la base de dades, i la relació entre grandària de la càrrega de treball i la capacitat dels treballadors.
Resumo:
L’objectiu del projecte és elaborar un mòdul de consulta de camins i publicar-lo al servidor de mapes del Consell Comarcal del Vallès Occidental. Des del visor del servidor web, aquest mòdul permet realitzar consultes clares i intuïtives sobre les característiques i situació dels camins. El projecte es diferencia en dues parts bàsiques: la construcció de la base de dades, gestionada a través PostgreSQL/PostGIS i, l’altra, el desenvolupament de l’aplicació de consulta, programada en els llenguatges HTML, Javascript i PHP, i que construeix i visualitza els mapes a través de la xarxa web amb la llibreria MapScript PHP de MapServer.
Resumo:
L’objectiu principal d’aquest projecte és la migració i desenvolupament d’utilitats d’anàlisi d’una sèrie de codis escrits, que es feien servir en Avenue (ArcView 3.2) a VBScript (ArcMap 9.3). El segon objectiu és donar a aquestes aplicacions una interfície gràfica, intuïtiva per a l’usuari final. És a dir, per una banda, crear un formulari d’entrada de dades, i per l’altra banda, que cada formulari estigui en una mateixa Barra d’Eines. Això facilita al treballador del Clavegueram de Barcelona (CLABSA) amb un valor afegit a la seva feina, ja que aquest disposarà de més temps per a fer altres tasques d’explotació.
Resumo:
El projecte d'incidències faunística està emmarcat a la 10 edició del Màster en Tecnologies de la Informació Geogràfica. Aquest projecte està realitzat pel consorci del Parc de Collserola i té dos objectius: el primer és muntar una base de dades en PostgreSQL amb arxius que es trobaven en format shapefile i van ser exportats a Postgis pel maneig de la cartografia i les seves taules que són les que constituïxen la base de dades. El segon objectiu va ser crear una eina on l'usuari del parc pogués reportar incidències faunístiques mitjançant la web i aquesta així mateix poder ser representada al mapa. Dins del projecte s’han fet servir eines de programació per a generar la interfície amb els mapes, emprant els llenguatges Javascript, php, html.
Resumo:
La present memòria és el resultat del Projecte final del Màster en Tecnologia de la Informació Geogràfica, realitzat en la Universitat Autònoma de Barcelona, curs 2007-2009. Aquest document és per a il•lustrar el treball realitzat en a l'empresa Auding en conjunt en col•laboració amb la Universitat Autònoma de Barcelona. L'objectiu del projecte va ser és la creació de noves funcionalitats per a un GIS corporatiu d'una empresa de distribució d'aigua en alta. Aquest GIS és estratègic, doncs ja que permet millorar el tractament de la informació, la difusió de les dades, la planificació i la presa de decisions corporatiu.
Optimización de procedimientos de consolidación en actuaciones proyectadas mediante aplicaciones SIG
Resumo:
Durant el transcurs del treball es detalla una optimització del procés productiu que porta a terme l’empresa Aurensis, que tracta de construir una base de dades i suport cartogràfic d’actuacions a petición de client. Es produiran beneficis en el resultat final i en el transcurs del mateix amb millores d’automatització, seqüenciació i la conseqüent reducción de temps. Per a això s’ha creat un aplicatiu dintre de l’entorn de treball ArcMap amb components ArcToolbox i ús de llibreries ArcObjects utilitzant el llenguatge Visual Basic for Applications (VBA).
Resumo:
El document recull la memòria del projecte final del projecte de la desena edició del Màster en Tecnologies de la Informació Geogràfica impartit en Laboratori d’Informació Geogràfica i Teledetecció (LIGIT) del departament de geografia de la UAB i realitzat amb col•laboració de l’empresa SEYS. El projecte es contextualitza en el desenvolupament del Sistema d’Informació Geogràfica (SIG) d’urbanisme integrat en una plataforma corporativa del SIG municipal per a l’Ajuntament de Tarragona com a resposta a la revisió del planejament urbanístic (POUM) El projecte es desenvolupa en tres blocs: Urbanisme, Cartografia bàsica i interoperativitat. Les tasques realitzades en aquestes pràctiques versen sobre dos d’aquest mòduls: Urbanisme, on s’estructura les dades del POUM per tal d’establir una base de dades. Aquesta servirà de base pel desenvolupament de l’aplicatiu que facilitarà les tasques del departament d’urbanisme Interoperativitat, on es desenvoluparà un servidor de la informació geoespacial , per tal de poder-hi accedir des del diferents departaments de l’Ajuntament, i un geoportal per visualitzar-les.
Selection bias and unobservable heterogeneity applied at the wage equation of European married women
Resumo:
This paper utilizes a panel data sample selection model to correct the selection in the analysis of longitudinal labor market data for married women in European countries. We estimate the female wage equation in a framework of unbalanced panel data models with sample selection. The wage equations of females have several potential sources of.
Resumo:
Consider a model with parameter phi, and an auxiliary model with parameter theta. Let phi be a randomly sampled from a given density over the known parameter space. Monte Carlo methods can be used to draw simulated data and compute the corresponding estimate of theta, say theta_tilde. A large set of tuples (phi, theta_tilde) can be generated in this manner. Nonparametric methods may be use to fit the function E(phi|theta_tilde=a), using these tuples. It is proposed to estimate phi using the fitted E(phi|theta_tilde=theta_hat), where theta_hat is the auxiliary estimate, using the real sample data. This is a consistent and asymptotically normally distributed estimator, under certain assumptions. Monte Carlo results for dynamic panel data and vector autoregressions show that this estimator can have very attractive small sample properties. Confidence intervals can be constructed using the quantiles of the phi for which theta_tilde is close to theta_hat. Such confidence intervals are found to have very accurate coverage.
Resumo:
L’objectiu principal del projecte és el de classificar escenes de carretera en funció del contingut de les imatges per així poder fer un desglossament sobre quin tipus de situació tenim en el moment. És important que fixem els paràmetres necessaris en funció de l’escenari en què ens trobem per tal de treure el màxim rendiment possible a cada un dels algoritmes. La seva funcionalitat doncs, ha de ser la d’avís i suport davant els diferents escenaris de conducció. És a dir, el resultat final ha de contenir un algoritme o aplicació capaç de classificar les imatges d’entrada en diferents tipus amb la màxima eficiència espacial i temporal possible. L’algoritme haurà de classificar les imatges en diferents escenaris. Els algoritmes hauran de ser parametritzables i fàcilment manejables per l’usuari. L’eina utilitzada per aconseguir aquests objectius serà el MATLAB amb les toolboxs de visió i xarxes neuronals instal·lades.
Resumo:
L'explosió d'aplicacions a Internet basades en oferir serveis de localització, com són portals web de mobilitat o aplicacions de seguiment de vehicles en línia han motivat aquest projecte. Google Maps ens permet afegir mapes fàcilment en un lloc web amb la seva API, però OpenLayers, una llibreria JavaScript lliure ens dóna l'opció de carregar cobertures de mapa i marcadors des de qualsevol font. OpenStreetMap proporciona dades geogràfiques de manera lliure, com per exemple mapes de carrers i carreteres. Un estudi acurat de l'estructura i agrupació de les dades en el format OSM i el desenvolupament d'un servidor basat en el model de tessel·les, són els principals elements de partida per crear la nostra pròpia font de dades cartogràfiques. En aquest projecte s'analitza i processa DXF Drawing eXchange Format passant al format OSM. Un fitxer OSM conté la informació geogràfica necessària per a la base de dades espaial a partir de la qual, entre d'altres aplicacions, es podran visualitzar els mapes propis en una aplicació de seguiment de vehicles o en un portal web.
Resumo:
Aquest treball és una proposta metodològica per l’elaboració d’un estudi històric d’oients de ràdio. La proposta fa un estudi de cas, centrat en la ciutat de Girona entre 1937 i 1939, per tal de demostrar que la metodologia aplicada ha funcionat. És el primer que es fa amb dades completament objectives per aproximar-se a la audiència històrica de la ràdio. A partir d’aquest treball que troba, prova i valida les eines que han de servir per poder fer un “EGM històric”, es pot concloure per exemple que a Girona l’any 1937, en plena Guerra Civil, hi havia almenys 7.380 persones que podien escoltar diàriament la ràdio, o que un 7% de la població tenia un aparell de ràdio a casa seva.
Resumo:
La indexació i la recerca de pàgines web es basa en l’anàlisi de text. La tecnologia actual encara no pot processar d’una manera eficient i suficientment ràpida el text contingut a les imatges de les pàgines web. Aquest fet planteja un problema important d’indexació però també d’inaccessibilitat. Per poder quantificar aquest problema hem desenvolupat una aplicació software que ens permet realitzar un estudi sobre aquesta situació. Hem utilitzat aquest software per analitzar un conjunt de pàgines web representatives de la situació actual a Internet. Aquests resultats obtinguts s’han analitzat i comparat amb estudis anteriors.