1000 resultados para Observació (Mètode científic)
Resumo:
En este trabajo se propone un método para mejorar la predicción de la propagación de incendios forestales. En la actualidad existen diversos simuladores de comportamiento del fuego los cuales utilizan diversos parámetros de entrada. Estos parámetros de entrada suelen ser una fuente de imprecisión dada la dificultad que resulta disponer de sus valores reales. Este trabajo intenta mejorar las predicciones mediante la mejora de la precisión de los parámetros de entrada. Se utiliza un algoritmo genético guiado utilizando conocimiento disponible. Los resultados observados demuestran que utilizar conocimiento mejora la precisión de las predicciones y acelera dicho proceso.
Resumo:
En este proyecto, lo primero que hemos hecho ha sido desarrollar un algoritmo en Matlab que implementara el método de calibración TRL, el funcionamiento del cual hemos comprobado en primera instancia mediante simulaciones y, posteriormente, mediante un ejemplo real. Posteriormente, hemos desarrollado otro algoritmo en Matlab para implementar el método de calibración LRM. Este algoritmo sólo lo hemos podido comprobar a nivel de simulación. A continuación, mediante los dos algoritmos, hemos realizado una comparación entre ambos sistemas de calibración a través de simulaciones. Finalmente, analizando los resultados de varias simulaciones calibradas con nuestro programa del método TRL, hemos buscado cuáles pueden ser los motivos para la aparición de picos indeseados y hemos encontrado uno de ellos.
Resumo:
Scandals of selective reporting of clinical trial results by pharmaceutical firms have underlined the need for more transparency in clinical trials. We provide a theoretical framework which reproduces incentives for selective reporting and yields three key implications concerning regulation. First, a compulsory clinical trial registry complemented through a voluntary clinical trial results database can implement full transparency (the existence of all trials as well as their results is known). Second, full transparency comes at a price. It has a deterrence effect on the incentives to conduct clinical trials, as it reduces the firms'gains from trials. Third, in principle, a voluntary clinical trial results database without a compulsory registry is a superior regulatory tool; but we provide some qualified support for additional compulsory registries when medical decision-makers cannot anticipate correctly the drug companies' decisions whether to conduct trials. Keywords: pharmaceutical firms, strategic information transmission, clinical trials, registries, results databases, scientific knowledge JEL classification: D72, I18, L15
Resumo:
JPEG 2000 és un estàndard de compressió d'imatges que utilitza tècniques estat de l’art basades en la transformada wavelet. Els principals avantatges són la millor compressió, la possibilitat d’operar amb dades comprimides i que es pot comprimir amb i sense pèrdua amb el mateix mètode. BOI és la implementació de JPEG 2000 del Grup de Compressió Interactiva d’Imatges del departament d’Enginyeria de la Informació i les Comunicacions, pensada per entendre, criticar i millorar les tecnologies de JPEG 2000. La nova versió intenta arribar a tots els extrems de l’estàndard on la versió anterior no va arribar.
Resumo:
La música no només pot emprar-se per a l'evocació de sentiments, sinó també per a la transmissió d'informació. En aquest treball es proposa un mètode, en aquest sentit, basat en una forma general de musicalització que vincula algorítmicament la composició musical i el fenomen que es monitoritza. El procediment que resulta ha estat dissenyat específicament per als electrocardiogrames (ECG). Les composicions musicals generades, ofereixen melodies agradables, en el cas de subjectes sans, que s'alteren notablement i es tornen dissonants si els pacients manifesten determinades enfermetats o disfuncions.
Resumo:
Recerca realitzada durant el periode Gener 2006-Abril 2007, a la Facultat de Farmàcia de la Universitat de Barcelona sota la direcció de la Dra. M. Carmen López Sabater. La nutrició durant els primers anys de vida té una enorme importància, amb repercussions en el creixement i desenvolupament del nen i en les possibles malalties futures. Tenint en compte que la llet materna és l’aliment ideal per al nadó durant els primers sis mesos de vida, és important conéixer la composició nutricional de la mateixa i la seva evolució al llarg de la lactància (calostre, llet de transició i madura). La llet conté nutrients majoritaris (proteïnes, carbohidrats i lípids) i nutrients minoritaris, com vitamines i minerals. S'ha desenvolupat i validat un mètode per a la determinació d'àcids grassos (AG) i Àcid Linoleic Conjugat (CLA) en llet materna per Cromatografia de Gasos "fast" (fast-GC), permetent reduir el temps d'anàlisi considerablement en comparació amb els mètodes utilitzats fins el moment. La repetibilitat i reproducibilitat trobades han estat bones, amb coeficients de variació inferiors al 10% en tots els casos. L'aplicació a 6 mostres de llet materna ha demostrat que es tracta d'un mètode senzill, ràpid, eficient i pràctic per a l'anàlisi rutinari d'un elevat nombre de mostres. També s'ha començat a desenvolupar un mètode per a l'anàlisi dels anàlegs de tocoferol de la llet materna, degut a l'interès de la vitamina E com a antioxidant natural. És un mètode per Cromatografia Líquida d'Ultra Resolució (UPLC) amb detecció per Fluorescència (FD) i per Photodiode Array (PDA) que permet treballar amb quantitats de mostra petites mantenint o inclús millorant la sensibilitat i reduint el temps d’anàlisi.
Resumo:
Aquest article se centra en les implicacions de la difusió electrònica per al sistema de publicació de revistes basat en la revisió per parells [peer-reviewed]. Per donar sentit a un assumpte tan complex, és de molt ajut mirar-s'ho des de la perspectiva dels orígens del sistema i de les seves tres funcions nuclears: el rànquing en la recerca, facilitar la comunicació interactiva entre els estudiosos i crear un arxiu global del coneixement científic. Cadascuna d’aquestes funcions principals té requeriments diferents que, en certa mesura, se sobreposen però que també entren, d'alguna manera, en conflicte. Internet obre la possibilitat de desenvolupar una varietat de models distints de comunicació científica modulant la intensitat de cadascun d'aquests tres rols que les revistes en paper han desenvolupat i, possiblement, d'altres funcions que no eren ni tan sols imaginables abans del desenvolupament de les xarxes electròniques d'abast planetari. Les implicacions de la distribució electrònica per a la propietat i accés a la literatura científica són profundes i tendeixen a agreujar la ja seriosa crisi dels preus de les revistes que està frenant l'accés a la informació científica. La comunitat d'estudiosos, que és autora del material que aquestes publicacions contenen i, al mateix temps, n'és el principal consumidor, està en possessió de la clau per a solucionar aquesta crisi tot permetent a Internet ser un vehicle que faciliti la difusió d’una recerca finançada des del sector públic en comptes de crear una situació de propietat privada d'aquesta recerca.
Resumo:
Aquest projecte tracta de realitzar un estudi per comprovar si es pot simular una aplicació de prova (benchmark) reduint el temps de simulació. Per tal de reduir el temps de simulació es seleccionaran uns determinats fragments significatius de l'execució de l'aplicació. L'objectiu és obtenir un resultat de simulació el més similar possible al de la simulació completa però en menys temps. El mètode que farem servir s'anomena incremental i consisteix a dividir la simulació en intervals d'un milió d'instruccions. Un cop dividit hem simulat per passos. En cada pas s'afegeixen intervals i s'atura la simulació quan la diferència entre el resultat del pas actual i l'anterior és inferior a un determinat valor escollit inicialment. Després es proposa una millora que es realitza i es mostren els resultats obtinguts. La millora consisteix a simular un petit interval previ a l'interval significatiu per millorar el resultat.
Resumo:
Durant les darreres dècades, i degut, principalment, a un canvi en els hàbits alimentaris, hi ha hagut un augment a nivell mundial de malalties cròniques (l’obesitat, malalties cardiovasculars, etc.). En els països mediterranis hi ha menys incidència d’aquestes malalties i sembla ser que això es deu a l’anomenada dieta mediterrània. La dieta mediterrània es caracteritza per una combinació d’oli d’oliva com a grassa principal, verdures, hortalisses i fruites en abundància, lleguminoses, fruits secs, formatges i iogurt, peix, pa, pasta, cereals i els seus derivats i un consum moderat de vi i carns. Aquest model alimentari, ric en tocoferols, fitosterols i fitoestanols que ajuden a reduir el contingut de colesterol en sang, fa que en les poblacions mediterrànies hi hagi menys incidència de malalties cardiovasculars. Aquests compostos inhibeixen el deteriorament oxidatiu dels olis, actuen com agent antipolimerització per olis de fregir. Tenen capacitat de reduir els nivells de colesterol, evitant la incidència de malalties cardiovasculars. Els fitoesterols y fitoestanols es poden trobar en forma lliure o esterificada amb àcids grassos, àcids fenòlics i glucosa. Els objectius d’ aquest treball han estat, primer en el desenvolupament de mètodes d'anàlisi ràpids, fiables i robusts dels tocoferols, fitoesterols i fitoestanols i la seva aplicació en fruits sec, oli de segó, oli de pinyol de raïm i productes que els continguin. El primer mètode va estar basat en la cromatografía líquida (HPLC-DAD) amb extracció en fase sòlida (SPE) com tècnica alternativa a la saponificació para la determinació de fitoesterols lliures. Aquest mètode va estar aplicada a mostres de bombons que contenia fitoesterols. El segon mètode va estar basat en la cromatografia de gasos (GCFID) amb aponificació i SPE per quantificar fitoesterols i fitoestanols lliures, esterificats i totals. En els documents annexos es descriuen a profunditat els mètodes desenvolupats.
Resumo:
Aquest projecte es basa en l'estudi de l'oferiment de qualitat de servei en xarxes wireless i satel·litals. Per això l'estudi de les tècniques de cross-layer i del IEEE 802.11e ha sigut el punt clau per al desenvolupament teòric d’aquest estudi. Usant el simulador de xarxes network simulator, a la part de simulacions es plantegen tres situacions: l'estudi de la xarxa satel·lital, l'estudi del mètode d'accés HCCA i la interconnexió de la xarxa satel·lital amb la wireless. Encara que aquest últim punt, incomplet en aquest projecte, ha de ser la continuació per a futures investigacions.
Resumo:
Res no pot garantir que un procés de selecció d'un sistema automatitzat arribi a tenir èxit, però l'observació d'un conjunt de principis de sentit comú pot ajudar a assegurar l'èxit del resultat. El procés ha de centrar-se en el llarg termini i ha de tenir present el context institucional en el qual el sistema s'establirà. Els sistemes estan cada vegada més orientats als usuaris, i per tant el compromís dels usuaris en el procés de selecció és més i més important. Els components del procés de selecció poden ser previstos i combinats de moltes maneres diferents. El procediment usat per les Purdue University Libraries serveix per a il·lustrar una via en la realització pràctica d'un procés.
Resumo:
Les xarxes híbrides satèl·lit-terrestre ofereixen connectivitat a zones remotes i aïllades i permeten resoldre nombrosos problemes de comunicacions. No obstant, presenten diversos reptes, ja que realitzen la comunicació per un canal mòbil terrestre i un canal satèl·lit contigu. Un d'aquests reptes és trobar mecanismes per realitzar eficientment l'enrutament i el control de flux, de manera conjunta. L'objectiu d'aquest projecte és simular i estudiar algorismes existents que resolguin aquests problemes, així com proposar-ne de nous, mitjançant diverses tècniques d'optimització convexa. A partir de les simulacions realitzades en aquest estudi, s'han analitzat àmpliament els diversos problemes d'enrutament i control de flux, i s'han avaluat els resultats obtinguts i les prestacions dels algorismes emprats. En concret, s'han implementat de manera satisfactòria algorismes basats en el mètode de descomposició dual, el mètode de subgradient, el mètode de Newton i el mètode de la barrera logarítmica, entre d'altres, per tal de resoldre els problemes d'enrutament i control de flux plantejats.
Resumo:
Estudi elaborat a partir d’una estada al Politecnico de Milano, Itàlia, entre gener i juny del 2006. Un dels principals objectius de l’Enginyeria del Programari és automatitzar el màxim possible el procés de desenvolupament del programari, reduint costos mitjançant la generació automàtica del programari a partir de la seva especificació. Per assolir-ho, entre altres, cal resoldre el problema de la comprovació eficient de restriccions, que són una part fonamental de l’especificació del programari. Aquest és precisament l’àmbit en què s’està desenvolupant una tesi que presentarà un mètode que poden integrar totes les eines generadores de codi per tal d’assolir una implementació eficient de les restriccions d’integritat. En l’actual fase del projecte s’ha treballat per validar el mètode de la tesi, optimitzant-lo pel cas específic de les aplicacions web i estendre’l per poder tractar també aplicacions basades en workflows. Pel que fa a l’optimització del mètode per aplicacions web, s’han definit una sèrie de paràmetres que permeten configurar la implementació del mètode tenint en compte les necessitats específiques de rendiment de cada aplicació web en particular. Respecte als workflows (cada cop més populars i que s’usen com a definició d’alt nivell per a les aplicacions a desenvolupar) s’ha estudiat quins són els tipus de restriccions que impliquen i com després es pot aplicar el mètode de la tesi sobre aquestes restriccions per tal de generar de forma eficient també les aplicacions basades en workflows.
Resumo:
Projecte de recerca elaborat a partir d’una estada al Laboratory of Archaeometry del National Centre of Scientific Research “Demokritos” d’Atenes, Grècia, entre juny i setembre 2006. Aquest estudi s’emmarca dins d’un context més ampli d’estudi del canvi tecnològic que es documenta en la producció d’àmfores de tipologia romana durant els segles I aC i I dC en els territoris costaners de Catalunya. Una part d’aquest estudi contempla el càlcul de les propietats mecàniques d’aquestes àmfores i la seva avaluació en funció de la tipologia amforal, a partir de l’Anàlisi d’Elements Finits (AEF). L’AEF és una aproximació numèrica que té el seu origen en les ciències d’enginyeria i que ha estat emprada per estimar el comportament mecànic d’un model en termes, per exemple, de deformació i estrès. Així, un objecte, o millor dit el seu model, es dividit en sub-dominis anomenats elements finits, als quals se’ls atribueixen les propietats mecàniques del material en estudi. Aquests elements finits estan connectats formant una xarxa amb constriccions que pot ser definida. En el cas d’aplicar una força determinada a un model, el comportament de l’objecte pot ser estimat mitjançant el conjunt d’equacions lineals que defineixen el rendiment dels elements finits, proporcionant una bona aproximació per a la descripció de la deformació estructural. Així, aquesta simulació per ordinador suposa una important eina per entendre la funcionalitat de ceràmiques arqueològiques. Aquest procediment representa un model quantitatiu per predir el trencament de l’objecte ceràmic quan aquest és sotmès a diferents condicions de pressió. Aquest model ha estat aplicat a diferents tipologies amforals. Els resultats preliminars mostren diferències significatives entre la tipologia pre-romana i les tipologies romanes, així com entre els mateixos dissenys amforals romans, d’importants implicacions arqueològiques.
Resumo:
Projecte de recerca elaborat a partir d’una estada al Department for Feed and Food Hygiene del National Veterinary Institute, Noruega, entre novembre i desembre del 2006. Els grans de cereal poden estar contaminats amb diferents espècies de Fusarium capaces de produir metabolits secundaris altament tòxics com trichotecenes, fumonisines o moniliformines. La correcta identificació d’aquestes espècies és de gran importància per l’assegurament del risc en l’àmbit de la salut humana i animal. La identificació de Fusarium en base a la seva morfologia requereix coneixements taxonòmics i temps; la majoria dels mètodes moleculars permeten la identificació d’una única espècie diana. Per contra, la tecnologia de microarray ofereix l’anàlisi paral•lel d’un alt nombre de DNA dianes. En aquest treball, s’ha desenvolupat un array per a la identificació de les principals espècies de Fusarium toxigèniques del Nord i Sud d’Europa. S’ha ampliat un array ja existent, per a la detecció de les espècies de Fusarium productores de trichothecene i moniliformina (predominants al Nord d’Europa), amb l’addició de 18 sondes de DNA que permeten identificar les espècies toxigèniques més abundants al Sud d’Europa, les qual produeixen majoritàriament fumonisines. Les sondes de captura han estat dissenyades en base al factor d’elongació translació- 1 alpha (TEF-1alpha). L’anàlisi de les mostres es realitza mitjançant una única PCR que permet amplificar part del TEF-1alpha seguida de la hibridació al xip de Fusarium. Els resultats es visualitzen mitjançant un mètode de detecció colorimètric. El xip de Fusarium desenvolupat pot esdevenir una eina útil i de gran interès per a l’anàlisi de cereals presents en la cadena alimentària.