966 resultados para Turing machines.
Resumo:
This work proposes an original contribution to the understanding of shermen spatial behavior, based on the behavioral ecology and movement ecology paradigms. Through the analysis of Vessel Monitoring System (VMS) data, we characterized the spatial behavior of Peruvian anchovy shermen at di erent scales: (1) the behavioral modes within shing trips (i.e., searching, shing and cruising); (2) the behavioral patterns among shing trips; (3) the behavioral patterns by shing season conditioned by ecosystem scenarios; and (4) the computation of maps of anchovy presence proxy from the spatial patterns of behavioral mode positions. At the rst scale considered, we compared several Markovian (hidden Markov and semi-Markov models) and discriminative models (random forests, support vector machines and arti cial neural networks) for inferring the behavioral modes associated with VMS tracks. The models were trained under a supervised setting and validated using tracks for which behavioral modes were known (from on-board observers records). Hidden semi-Markov models performed better, and were retained for inferring the behavioral modes on the entire VMS dataset. At the second scale considered, each shing trip was characterized by several features, including the time spent within each behavioral mode. Using a clustering analysis, shing trip patterns were classi ed into groups associated to management zones, eet segments and skippers' personalities. At the third scale considered, we analyzed how ecological conditions shaped shermen behavior. By means of co-inertia analyses, we found signi cant associations between shermen, anchovy and environmental spatial dynamics, and shermen behavioral responses were characterized according to contrasted environmental scenarios. At the fourth scale considered, we investigated whether the spatial behavior of shermen re ected to some extent the spatial distribution of anchovy. Finally, this work provides a wider view of shermen behavior: shermen are not only economic agents, but they are also foragers, constrained by ecosystem variability. To conclude, we discuss how these ndings may be of importance for sheries management, collective behavior analyses and end-to-end models.
Resumo:
In this paper, we propose two active learning algorithms for semiautomatic definition of training samples in remote sensing image classification. Based on predefined heuristics, the classifier ranks the unlabeled pixels and automatically chooses those that are considered the most valuable for its improvement. Once the pixels have been selected, the analyst labels them manually and the process is iterated. Starting with a small and nonoptimal training set, the model itself builds the optimal set of samples which minimizes the classification error. We have applied the proposed algorithms to a variety of remote sensing data, including very high resolution and hyperspectral images, using support vector machines. Experimental results confirm the consistency of the methods. The required number of training samples can be reduced to 10% using the methods proposed, reaching the same level of accuracy as larger data sets. A comparison with a state-of-the-art active learning method, margin sampling, is provided, highlighting advantages of the methods proposed. The effect of spatial resolution and separability of the classes on the quality of the selection of pixels is also discussed.
Resumo:
The development of statistical models for forensic fingerprint identification purposes has been the subject of increasing research attention in recent years. This can be partly seen as a response to a number of commentators who claim that the scientific basis for fingerprint identification has not been adequately demonstrated. In addition, key forensic identification bodies such as ENFSI [1] and IAI [2] have recently endorsed and acknowledged the potential benefits of using statistical models as an important tool in support of the fingerprint identification process within the ACE-V framework. In this paper, we introduce a new Likelihood Ratio (LR) model based on Support Vector Machines (SVMs) trained with features discovered via morphometric and spatial analyses of corresponding minutiae configurations for both match and close non-match populations often found in AFIS candidate lists. Computed LR values are derived from a probabilistic framework based on SVMs that discover the intrinsic spatial differences of match and close non-match populations. Lastly, experimentation performed on a set of over 120,000 publicly available fingerprint images (mostly sourced from the National Institute of Standards and Technology (NIST) datasets) and a distortion set of approximately 40,000 images, is presented, illustrating that the proposed LR model is reliably guiding towards the right proposition in the identification assessment of match and close non-match populations. Results further indicate that the proposed model is a promising tool for fingerprint practitioners to use for analysing the spatial consistency of corresponding minutiae configurations.
Resumo:
Contexte et but de l'étude: Les fractures du triquetrum sont les deuxièmes fractures des os du carpe en fréquence, après celles du scaphoïde. Elles représentent environ 3.5% de toutes les lésions traumatiques du poignet, et résultent le plus souvent d'une chute de sa hauteur avec réception sur le poignet en hyper-extension. Leur mécanisme physiopathologique reste débattu. La première théorie fut celle de l'avulsion ligamentaire d'un fragment osseux dorsal. Puis, Levy et coll. ainsi que Garcia-Elias ont successivement suggéré que ces fractures résultaient plutôt d'une impaction ulno-carpienne. De nombreux ligaments (intrinsèques et extrinsèques du carpe) s'insèrent sur les versants palmaires et dorsaux du triquetrum. Ces ligaments jouent un rôle essentiel dans le maintien de la stabilité du carpe. Bien que l'arthro-IRM du poignet soit l'examen de référence pour évaluer ces ligaments, Shahabpour et coll. ont récemment démontré leur visibilité en IRM tridimensionnelle (volumique) après injection iv. de produit de contraste (Gadolinium). L'atteinte ligamentaire associée aux fractures dorsales du triquetrum n'a jusqu'à présent jamais été évalué. Ces lésions pourraient avoir un impact sur l'évolution et la prise en charge de ces fractures. Les objectifs de l'étude étaient donc les suivants: premièrement, déterminer l'ensemble des caractéristiques des fractures dorsales du triquetrum en IRM, en mettant l'accent sur les lésions ligamentaires extrinsèques associées; secondairement, discuter les différents mécanismes physiopathologiques (i.e. avulsion ligamentaire ou impaction ulno-carpienne) de ces fractures d'après nos résultats en IRM. Patients et méthodes: Ceci est une étude rétrospective multicentrique (CHUV, Lausanne; Hôpital Cochin, AP-HP, Paris) d'examens IRM et radiographies conventionnelles du poignet. A partir de janvier 2008, nous avons recherché dans les bases de données institutionnelles les patients présentant une fracture du triquetrum et ayant bénéficié d'une IRM volumique du poignet dans un délai de six semaines entre le traumatisme et l'IRM. Les examens IRM ont été effectués sur deux machines à haut champ magnétique (3 Tesla) avec une antenne dédiée et un protocole d'acquisition incluant une séquence tridimensionnelle isotropique (« 3D VIBE ») après injection iv. de produit de contraste (Gadolinium). Ces examens ont été analysés par deux radiologues ostéo-articulaires expérimentés. Les mesures ont été effectuées par un troisième radiologue ostéo-articulaire. En ce qui concerne l'analyse qualitative, le type de fracture du triquetrum (selon la classification de Garcia-Elias), la distribution de l'oedème osseux post- traumatique, ainsi que le nombre et la distribution des lésions ligamentaires extrinsèques associées ont été évalués. Pour l'analyse quantitative, l'index du processus de la styloïde ulnaire (selon la formule de Garcia-Elias), le volume du fragment osseux détaché du triquetrum, et la distance séparant ce fragment osseux du triquetrum ont été mesurés.
Resumo:
Des dels inicis dels ordinadors com a màquines programables, l’home ha intentat dotar-los de certa intel•ligència per tal de pensar o raonar el més semblant possible als humans. Un d’aquests intents ha sigut fer que la màquina sigui capaç de pensar de tal manera que estudiï jugades i guanyi partides d’escacs. En l’actualitat amb els actuals sistemes multi tasca, orientat a objectes i accés a memòria i gràcies al potent hardware del que disposem, comptem amb una gran varietat de programes que es dediquen a jugar a escacs. Però no hi ha només programes petits, hi ha fins i tot màquines senceres dedicades a calcular i estudiar jugades per tal de guanyar als millors jugadors del món. L’objectiu del meu treball és dur a terme un estudi i implementació d’un d’aquests programes, per això es divideix en dues parts. La part teòrica o de l’estudi, consta d’un estudi dels sistemes d’intel•ligència artificial que es dediquen a jugar a escacs, estudi i cerca d’una funció d’avaluació vàlida i estudi dels algorismes de cerca. La part pràctica del treball es basa en la implementació d’un sistema intel•ligent capaç de jugar a escacs amb certa lògica. Aquesta implementació es porta a terme amb l’ajuda de les llibreries SDL, utilitzant l’algorisme minimax amb poda alfa-beta i codi c++. Com a conclusió del projecte m’agradaria remarcar que l’estudi realitzat m’ha deixat veure que crear un joc d’escacs no era tan fàcil com jo pensava però m’ha aportat la satisfacció d’aplicar tot el que he après durant la carrera i de descobrir moltes altres coses noves.
Resumo:
Ningú no dubte ja del canvi de mentalitat que s’ha produït en els darrers anys en els compradors pel què fa al mercat de l’automòbil. La seguretat i el respecte per el medi ambient, són actualment dos dels factors claus que el consumidor té en compte a l’hora de comprar un vehicle. D’altra banda en els darrers anys la Unió Europea, ha fixat tota una sèrie normatives per tal de reduir les emissions nocives a l’atmosfera. Així doncs, més seguretat i menys emissions, signifiquen vehicles que incorporin components i sistemas cada cop més sofisticats, els quals, a la vegada, necessiten de bancs d’assaig i equips de test per tal de ser validats. Aquest fet ha provocat una revolució dins dels sistemes de test per a vehicles, per als quals han augmentat enormement les exigències en quan a precisions i repetibilitat per tal d’intentar reproduir, amb la màxima fiabilitat possible, les condicions de treball que hauran de suportar els components durant el seu ús real. Les característiques dels motors elèctrics, resulten ideals per a accionar aquest tipus d’aplicacions, ja que permeten un control del parell molt acurat i una repetibilitat quasi perfecte enfront d’altres sistemas utilitzats fins no fa massa temps. Aquesta demanda creixent d’aquest tipus de màquines elèctriques, obra una nova oportunitat de negoci per a les empreses fabricants de motors elèctrics. L’objectiu principal d’aquest treball és identificar i satisfer les necessitats dels clients, dins d’un mercat industrial concret: el mercat dels motors elèctrics per a bancs de proves de components per a la indústria de l’automoció. La fita és doncs la de proporcionar les eines necessàries per tal de que una empresa, fabricant de motors elèctrics de velocitat variable, pugui realitzar el disseny, desenvolupament i llançament comercial d’un nou tipus de motor, específicament pensat per aquest mercat, amb les màximes garanties d’èxit. Com a principal conclusió, el treball argumenta que el nou producte representa una oportunitat de negoci força atractiva i rendible per a l’empresa, i permetrà diversificar la oferta de la companyia cap a un nou sector fins ara no explotat.
Resumo:
Com a resultat de les politiques i estratègies de col·laboració entre la universitat de Vic i de l’hospital i de la voluntat de realitzar activitats formatives conjuntes , s’estableix un línia de treball orientada a l’estudi i anàlisi de la situació logística interna actual del laboratori d’anàlisis clíniques de l’Hospital General de Vic. El treball es centra en el procés intern del laboratori i l’abast de l’estudi es troba limitat a les àrees especifiques d’hematologia i coagulació i bioquímica. D’aquestes dues àrees el treball realitza un estudi exhaustiu del seu procés intern, identifica les seves activitats i la seva metodologia de treball amb l’objectiu d’elaborar el Value Stream Map de cadascuna de les àrees. Les àrees de Microbiologia, Banc de Sang i Urgències resten fora d’aquest estudi exhaustiu tot i que són presents en el treball per la inevitable interacció que tenen en la globalitat del procés. El treball es centra bàsicament en els processos automatitzats tot i que els processos que es duen a terme en el laboratori són tant automatitzats com manuals. També es limita al sistema productiu intern del laboratori tot i la interacció que té aquest sistema intern amb altres centres productius del sistema com ara són els centres d’atenció primària, els diversos hospitals i centres d’atenció sociosanitària. El laboratori es troba immers en el moment de l’elaboració d’aquest treball en un situació de canvi i millora del seus processos interns que consisteixen principalment en la substitució de part la maquinària actual que obliguen a la definició d’un nou layout i d’una nova distribució de la producció a cada màquina. A nivell extern també s’estan produint millores en el sistema informàtic de gestió que afecten a part del seu procés. L’objectiu del treball és donar visibilitat total al procés de logística interna actual del laboratori, identificant clarament com són i quina seqüència tenen els processos logístics interns i els mètodes de treball actuals, tant de recursos màquina com recursos persona, per poder identificar sota una perspectiva de generació de valor, aquells punts concrets de la logística interna que poden ser millorats en quant a eficiència i productivitat amb l’objectiu que un cop identificats es puguin emprendre accions i/o projectes de millora. El treball finalitza amb un anàlisis final del procés logística interna des d’una òptica Lean. Per fer-ho, identifica aquelles activitats que no aporten valor al procés o MUDA i les classifica en set categories i es realitzen diverses propostes de millora com són la implantació d’un flux continu , anivellat i basat en un concepte pull , identifica activitats que poden ser estandarditzades i/o simplificades i proposa modificacions en les infraestructures físiques per donar major visibilitat al procés. L’aspecte humà del procés es planteja des d’un punt de vist de metodologia, formació, comunicació i aplicació de les 5S.
Resumo:
Les empreses sempre han buscat com optimitzar el màxim els seus recursos i ser més eficients a la hora de realitzar les tasques que li han estat encomanades. És per aquest motiu que constantment les empreses realitzen estudis i valoracions de com poder millorar dia a dia. Aquest fet no és diferenciador a l’empresa Serralleria i Alumini Vilaró (S.A.V), que dia a dia estudia com optimitzar els seus processos o de vegades introduir-ne de nous per tal d’expandir la seva oferta de serveis. L’empresa és dedica a la fabricació de peces metàl•liques el procés ja sigui només de tall i mecanitzat, plegat, soldadura, acabats en inoxidable, pintura i fins i tot embalatge pel que fa a la part productiva, respecte a la part d’oficina tècnica també ofereix serveis de desenvolupament de productes segons especificacions del client i reenginyeria de qualsevol producte, analitzant la part que és vol millorar. En l’actualitat l’empresa ha detectat una mancança que creu que es podria solucionar, el problema és que l’empresa disposa de varies màquines de tall, entre les quals hi ha una màquina de tall làser i el problema principal és que la càrrega de les planxes del calaix de magatzem a la bancada de la màquina es realitza o bé manualment o a través d’un gripper sostingut al pont grua, depenent del pes de la planxa a transportar. L’objectiu principal d’aquest treball és fer el disseny d’una màquina que permeti automatitzar el procés de transportar la planxa metàl•lica del calaix de magatzem dipositat sobre una taula mòbil a la bancada de la màquina de tall. El disseny que pretenem fer és complet començant per fer un disseny estructural de la màquina més els seus respectius càlculs, moviments que volem aconseguir, tria de components ( motors, sensors ...), elaboració d’un pressupost per poder fer una estimació i finalment la elaboració del programa de control de tota la màquina més la interacció amb la màquina a través d’una pantalla tàctil. Es a dir, el que pretenem és realitzar un projecte que puguem fabricar en la realitat utilitzant tota la informació continguda dins del mateix
Batch effect confounding leads to strong bias in performance estimates obtained by cross-validation.
Resumo:
BACKGROUND: With the large amount of biological data that is currently publicly available, many investigators combine multiple data sets to increase the sample size and potentially also the power of their analyses. However, technical differences ("batch effects") as well as differences in sample composition between the data sets may significantly affect the ability to draw generalizable conclusions from such studies. FOCUS: The current study focuses on the construction of classifiers, and the use of cross-validation to estimate their performance. In particular, we investigate the impact of batch effects and differences in sample composition between batches on the accuracy of the classification performance estimate obtained via cross-validation. The focus on estimation bias is a main difference compared to previous studies, which have mostly focused on the predictive performance and how it relates to the presence of batch effects. DATA: We work on simulated data sets. To have realistic intensity distributions, we use real gene expression data as the basis for our simulation. Random samples from this expression matrix are selected and assigned to group 1 (e.g., 'control') or group 2 (e.g., 'treated'). We introduce batch effects and select some features to be differentially expressed between the two groups. We consider several scenarios for our study, most importantly different levels of confounding between groups and batch effects. METHODS: We focus on well-known classifiers: logistic regression, Support Vector Machines (SVM), k-nearest neighbors (kNN) and Random Forests (RF). Feature selection is performed with the Wilcoxon test or the lasso. Parameter tuning and feature selection, as well as the estimation of the prediction performance of each classifier, is performed within a nested cross-validation scheme. The estimated classification performance is then compared to what is obtained when applying the classifier to independent data.
Resumo:
En la societat d’avui dia, les empreses depenen en gran part dels seus recursos informàtics. La seva capacitat de supervivència i innovació en el mercat actual, on la competitivitat és cada dia més forta, passa per una infraestructura informàtica que els permeti, no només desplegar i implantar ordinadors i servidors de manera ràpida i eficient sinó que també les protegeixi contra parades del sistema informàtic, problemes amb servidors, caigudes o desastres físics de hardware.Per evitar aquests problemes informàtics susceptibles de poder parar el funcionament d’una empresa es va començar a treballar en el camp de la virtualització informàtica amb l’objectiu de poder trobar solucions a aquests problemes a la vegada que s’aprofitaven els recursos de hardware existents d’una manera més òptim a i eficient, reduint així també el cost de la infraestructura informàtica.L’objectiu principal d’aquest treball és veure en primer pla la conversió d’una empresa real amb una infraestructura informàtica del tipus un servidor físic -una funció cap a una infraestructura virtual del tipus un servidor físic -varis servidors virtual -vàries funcions. Analitzarem l’estat actual de l’empresa, servidors i funcions, adquirirem el hardware necessari i farem la conversió de tots els seus servidors cap a una nova infraestructura virtual.Faig especial atenció a les explicacions de perquè utilitzo una opció i no un altre i també procuro sempre donar vàries opcions. Igualment remarco en quadres verds observacions a tenir en compte complementàries al que estic explicant en aquell moment, i en quadres vermells temes en els que s’ha de posar especial atenció en el moment en que es fan. Finalment, un cop feta la conversió, veurem els molts avantatges que ens ha reportat aquesta tecnologia a nivell de fiabilitat, estabilitat, capacitat de tolerància a errades, capacitat de ràpid desplegament de noves màquines, capacitat de recuperació del sistema i aprofitament de recursos físics.
Resumo:
La interacció home-màquina per mitjà de la veu cobreix moltes àrees d’investigació. Es destaquen entre altres, el reconeixement de la parla, la síntesis i identificació de discurs, la verificació i identificació de locutor i l’activació per veu (ordres) de sistemes robòtics. Reconèixer la parla és natural i simple per a les persones, però és un treball complex per a les màquines, pel qual existeixen diverses metodologies i tècniques, entre elles les Xarxes Neuronals. L’objectiu d’aquest treball és desenvolupar una eina en Matlab per al reconeixement i identificació de paraules pronunciades per un locutor, entre un conjunt de paraules possibles, i amb una bona fiabilitat dins d’uns marges preestablerts. El sistema és independent del locutor que pronuncia la paraula, és a dir, aquest locutor no haurà intervingut en el procés d’entrenament del sistema. S’ha dissenyat una interfície que permet l’adquisició del senyal de veu i el seu processament mitjançant xarxes neuronals i altres tècniques. Adaptant una part de control al sistema, es podria utilitzar per donar ordres a un robot com l’Alfa6Uvic o qualsevol altre dispositiu.
Resumo:
Development and environmental issues of small cities in developing countries have largely been overlooked although these settlements are of global demographic importance and often face a "triple challenge"; that is, they have limited financial and human resources to address growing environmental problems that are related to both development (e.g., pollution) and under-development (e.g., inadequate water supply). Neoliberal policy has arguably aggravated this challenge as public investments in infrastructure generally declined while the focus shifted to the metropolitan "economic growth machines". This paper develops a conceptual framework and agenda for the study of small cities in the global south, their environmental dynamics, governance and politics in the current neoliberal context. While small cities are governed in a neoliberal policy context, they are not central to neoliberalism, and their (environmental) governance therefore seems to differ from that of global cities. Furthermore, "actually existing" neoliberal governance of small cities is shaped by the interplay of regional and local politics and environmental situations. The approach of urban political ecology and the concept of rural-urban linkages are used to consider these socio-ecological processes. The conceptual framework and research agenda are illustrated in the case of India, where the agency of small cities in regard to environmental governance seems to remain limited despite formal political decentralization.
Resumo:
During timber exploitation in forest stands harvesting machines pass repeatedly along the same track and can cause soil compaction, which leads to soil erosion and restricted tree root growth. The level of soil compaction depends on the number of passes and weight of the wood load. This paper aimed to evaluate soil compaction and eucalyptus growth as affected by the number of passes and wood load of a forwarder. The study was carried out in Santa Maria de Itabira county, Minas Gerais State - Brazil, on a seven-year-old eucalyptus stand planted on an Oxisol. The trees were felled by chainsaw and manually removed. Plots of 144 m² (four rows 12 m long in a 3 x 2 m spacing) were then marked off for the conduction of two trials. The first tested the traffic intensity of a forwarder which weighed 11,900 kg and carried 12 m³ wood (density of 480 kg m-3) and passed 2, 4, and 8 times along the same track. In the second trial, the forwarder carried loads of 4, 8, and 12 m³ of wood, and the machine was driven four times along the same track. In each plot, the passes affected four rows. Eucalyptus was planted in 30 x 30 x 30 cm holes on the compacted tracks. The soil in the area is clayey (470 clay and 440 g kg-1 sand content) and at depths of 0-5 cm and 5-10 cm, respectively, soil organic carbon was 406 and 272 g kg-1 and the moisture content during the trial 248 and 249 g kg-1. These layers were assessed for soil bulk density and water-stable aggregates. The infiltration rate was measured by a cylinder infiltrometer. After 441 days the measurements were repeated, with additional analyses of: soil organic carbon, total nitrogen, N-NH4+, N-NO3-, porosity, and penetration resistance. Tree height, stem diameter, and stem dry matter were measured. Forwarder traffic increased soil compaction, resistance to penetration and microporosity while it reduced the geometric mean diameter, total porosity, macroporosity and infiltration rate. Stem dry matter yield and tree height were not affected by soil compaction. Two passes of the forwarder were enough to cause the disturbances at the highest levels. The compaction effects were still persistent 441 days after forwarder traffic.
Resumo:
Compaction is one of the most destructive factors of soil quality, however the effects on the microbial community and enzyme activity have not been investigated in detail so far. The objective of this study was to evaluate the effects of soil compaction caused by the traffic of agricultural machines on the soil microbial community and its enzyme activity. Six compaction levels were induced by tractors with different weights driving over a Eutrustox soil and the final density was measured. Soil samples were collected after corn from the layers 0-0.10 and 0.10-0.20 m. The compaction effect on all studied properties was evident. Total bacteria counts were reduced significantly (by 22-30 %) and by 38-41 % of nitrifying bacteria in the soil with highest bulk density compared to the control. On the other hand, fungi populations increased 55-86 % and denitrifying bacteria 49-53 %. Dehydrogenase activity decreased 20-34 %, urease 44-46 % and phosphatase 26-28 %. The organic matter content and soil pH decreased more in the 0-0.10 than in the 0.10-0.20 m layer and possibly influenced the reduction of the microbial counts, except denitrifying bacteria, and all enzyme activities, except urease. Results indicated that soil compaction influences the community of aerobic microorganisms and their activity. This effect can alter nutrient cycling and reduce crop yields.
Resumo:
The research considers the problem of spatial data classification using machine learning algorithms: probabilistic neural networks (PNN) and support vector machines (SVM). As a benchmark model simple k-nearest neighbor algorithm is considered. PNN is a neural network reformulation of well known nonparametric principles of probability density modeling using kernel density estimator and Bayesian optimal or maximum a posteriori decision rules. PNN is well suited to problems where not only predictions but also quantification of accuracy and integration of prior information are necessary. An important property of PNN is that they can be easily used in decision support systems dealing with problems of automatic classification. Support vector machine is an implementation of the principles of statistical learning theory for the classification tasks. Recently they were successfully applied for different environmental topics: classification of soil types and hydro-geological units, optimization of monitoring networks, susceptibility mapping of natural hazards. In the present paper both simulated and real data case studies (low and high dimensional) are considered. The main attention is paid to the detection and learning of spatial patterns by the algorithms applied.