999 resultados para 616.5 Malattie del tegumento, dei peli, delle unghie
Resumo:
In questo progetto di tesi saranno applicate tecniche appartenenti al campo della bioingegneria, indirizzate al riconoscimento delle attività motorie e all’analisi del movimento umano. E' stato definito un protocollo di ricerca necessario per il raggiungimento degli obiettivi finali. Si è quindi implementata un’App Android per l’acquisizione e il salvataggio dei dati provenienti dai principali sensori di Smartwatch e Smartphone, utilizzati secondo le modalità indicate nel protocollo. Successivamente i dati immagazzinati nei dispositivi vengono trasferiti al Pc per effettuarne l’elaborazione off-line, in ambiente Matlab. Per facilitare la seguente procedura di sincronizzazione dei dati intra e inter-device, tutti i sensori sono stati salvati, dall’App Android, secondo uno schema logico definito. Si è perciò verificata la possibilità del riconoscimento del contesto e dell’attività nell’uso quotidiano dei dispositivi. Inoltre si è sviluppato un algoritmo per la corretta identificazione del numero dei passi, indipendentemente dall’orientamento del singolo dispositivo. Infatti è importante saper rilevare in maniera corretta il numero di passi effettuati, soprattutto nei pazienti che, a causa di diverse patologie, non riescono ad effettuare una camminata fluida, regolare. Si è visto come il contapassi integrato nei sistemi commerciali per il fitness più diffusi (Smartwatch), pecca soprattutto in questa valutazione, mentre l’algoritmo, appositamente sviluppato, è in grado di garantire un’analisi accettabile a prescindere dal tipo di attività svolta, soprattutto per i dispositivi posizionati in L5. Infine è stato implementato un algoritmo, che sfrutta il filtro di Kalman e un modello biomeccanico appositamente sviluppato, per estrapolare l’evoluzione dell’angolo Tronco-Coscia. Avere a disposizione tale informazione e perciò conoscere la biomeccanica e la cinematica del corpo umano, rende possibile l’applicazione di questa procedura in svariati campi in ambito clinico e non.
Resumo:
Le blue straggler stars (BSS) sono un importante strumento osservativo per gli studi mirati alla determinazione dell'evoluzione dinamica degli ammassi globulari. La loro distribuzione radiale, influenzata dal fenomeno di segregazione di massa, costituisce un efficace strumento per la determinazione dello stato di rilassamento del sistema. In questo lavoro di tesi sono esplorate le potenzialità di un nuovo indicatore di segregazione centrale delle BSS: la cosiddetta "Area Positiva (A+)", definita come la differenza tra l'area sottesa dalla distribuzione radiale cumulativa delle BSS e quella di una popolazione di riferimento. Per costruzione, questo parametro e` indicatore sensibile del livello di segregazione delle BSS. Il campione di ammassi e` costituito da 18 oggetti di bassa densità e concentrazione recentemente osservati nell'ambito di una survey ultravioletta con la camera WFC3/UVIS (Piotto et al. 2015) e 8 sistemi di densità più elevata, analizzati in lavori precedenti. Per ciascun ammasso sono state selezionate le popolazioni di BSS e di stelle di riferimento lungo la sequenza principale o il ramo delle giganti e sono state costruite le rispettive distribuzioni radiali cumulative, da cui e` stata poi determinata l'Area Positiva. Sono state infine individuate forti correlazioni tra A+ e alcuni parametri strutturali/dinamici degli ammassi, in particolare col tempo di rilassamento e la densita` centrali. Questi risultati dimostrano che il parametro A+ e` un buon misuratore del grado di evoluzione dinamica degli ammassi globulari.
Resumo:
Questa tesi presenta i risultati di un case-study condotto presso la scuola primaria G. Marconi e la scuola secondaria di I grado G. Diotti di Casalmaggiore (CR), volto ad indagare sul fenomeno della mediazione linguistica ad opera di bambini che, nel panorama moderno caratterizzato da una presenza straniera in continuo aumento, risulta una delle soluzioni più accessibili ai migranti per garantirsi un supporto linguistico che permetta l’accesso ai servizi pubblici fondamentali. La prima parte del testo costituisce un quadro teorico che consente di comprendere meglio gli obiettivi e i risultati dell’indagine condotta. Il primo capitolo si concentra sul rapporto immigrazione-scuola analizzando la situazione attuale, illustrando le caratteristiche e le esigenze della popolazione scolastica straniera ed esaminando le proposte ministeriali in materia di integrazione e accoglienza. Il secondo capitolo, invece, sposta l’attenzione sulla mediazione linguistica e culturale in Italia. Nello specifico viene dapprima approfondita la mediazione professionale facendo riferimento al quadro normativo e alle competenze specifiche del mediatore linguistico e culturale. In un secondo momento, viene introdotto il fenomeno della mediazione non professionale e viene illustrata la letteratura inerente. Da ultimo viene introdotto il tema del Child Language Brokering (CLB), ovvero il fenomeno della mediazione ad opera di minori. Partendo da una panoramica generale viene studiato lo sviluppo del CLB come oggetto di ricerca e ne vengono valutati aspetti positivi e negativi, soffermandosi in particolare sul contesto scolastico. Gli ultimi due capitoli, invece, sono dedicati alla parte operativa del lavoro di ricerca. Nel terzo capitolo viene presentato in maniera dettagliata il case-study analizzando la metodologia applicata, il campione selezionato e l’elaborazione dei questionari realizzati per la raccolta dei dati. Infine, nel quarto capitolo, sono esaminati i dati raccolti sul campo. Sulla base dei risultati ottenuti viene dapprima delineato il profilo del fenomeno in ciascuna delle scuole campione per poi mettere a confronto le tendenze generali emerse.
Resumo:
L'obiettivo di questa tesi è lo studio del legame tra la volatilità implicita e la volatilità attuale del titolo sottostante. In particolare, si cercherà di capire quanto conosciamo della volatilità del titolo sottostante se si osserva sul mercato un numero sufficiente di opzioni Call e Put Europee che dipendono da questo sottostante. Tale relazione è oggetto d'interesse pratico per gli attori dei mercati delle opzioni: si tratta di due grandezze fondamentali usate per prezzare i derivati finanziari. L'approccio usato verte alla dinamica dei processi e permetterà di mettere in luce nuove caratteristiche della volatilità implicita, nonché trovare una sua approssimazione. La dinamica del suddetto parametro è cruciale nelle operazioni di copertura e gestione del rischio per i portafogli di opzioni. Avendo a disposizione un modello per la dinamica della volatilità implicita, è possibile calcolare in maniera consistente il vega risk. La dinamica è altrettanto importante per la copertura delle opzioni esotiche, quali le opzioni barrier. Per riuscire a raggiungere il fine predisposto, si considera un modello di mercato libero da arbitraggi, il processo spot continuo e alcune assunzioni di non degenerazione. Ciononostante, si cerca di fare meno assunzioni possibili circa la dinamica del suddetto processo, in modo da trattare un modello di mercato generale, in particolare non completo. Attraverso questo approccio si potrà constatare che dai prezzi delle Call si riescono a ricavare interessanti informazioni riguardanti lo spot. Infatti, a partire da alcune condizioni di regolarità, si riesce a ricavare la dinamica della volatilità spot, osservando la dinamica della volatilità implicita.
Resumo:
Uno dei temi più recenti nel campo delle telecomunicazioni è l'IoT. Tale termine viene utilizzato per rappresentare uno scenario nel quale non solo le persone, con i propri dispositivi personali, ma anche gli oggetti che le circondano saranno connessi alla rete con lo scopo di scambiarsi informazioni di diversa natura. Il numero sempre più crescente di dispositivi connessi in rete, porterà ad una richiesta maggiore in termini di capacità di canale e velocità di trasmissione. La risposta tecnologica a tali esigenze sarà data dall’avvento del 5G, le cui tecnologie chiave saranno: massive MIMO, small cells e l'utilizzo di onde millimetriche. Nel corso del tempo la crescita delle vendite di smartphone e di dispositivi mobili in grado di sfruttare la localizzazione per ottenere servizi, ha fatto sì che la ricerca in questo campo aumentasse esponenzialmente. L'informazione sulla posizione viene utilizzata infatti in differenti ambiti, si passa dalla tradizionale navigazione verso la meta desiderata al geomarketing, dai servizi legati alle chiamate di emergenza a quelli di logistica indoor per industrie. Data quindi l'importanza del processo di positioning, l'obiettivo di questa tesi è quello di ottenere la stima sulla posizione e sulla traiettoria percorsa da un utente che si muove in un ambiente indoor, sfruttando l'infrastruttura dedicata alla comunicazione che verrà a crearsi con l'avvento del 5G, permettendo quindi un abbattimento dei costi. Per fare ciò è stato implementato un algoritmo basato sui filtri EKF, nel quale il sistema analizzato presenta in ricezione un array di antenne, mentre in trasmissione è stato effettuato un confronto tra due casi: singola antenna ed array. Lo studio di entrambe le situazioni permette di evidenziare, quindi, i vantaggi ottenuti dall’utilizzo di sistemi multi antenna. Inoltre sono stati analizzati altri elementi chiave che determinano la precisione, quali geometria del sistema, posizionamento del ricevitore e frequenza operativa.
Resumo:
La tesi è il risultato dell’attività di tirocinio svolta presso Ecor Research, su una tematica proposta da un cliente, più precisamente Tetra Pak. Si progettano nuove soluzioni per un meccanismo estrattore di pacchetti preformati all’interno di un macchina automatica riempitrice di liquido per il confezionamento continuo in ambiente asettico. L’estrattore è posto in seguito all’organo che forma i pacchetti preformati e deve aumentare la velocità degli stessi in modo tale da permettere lo scarto dei danneggiati, in corrispondenza della massima produttività della macchina. Lo scarto avviene tramite uno scivolo che si frappone al moto del pacchetto nel caso esso sia danneggiato, non appena è avvenuta l’estrazione. Quindi, senza la presenza dell’estrattore, il sistema di scarto non ha una adeguata finestra temporale in cui agire. In seguito i pacchetti non danneggiati entrano nel successivo organo macchina dove vengono riferiti e distanziati per le successive lavorazioni. Le nuove soluzioni sono sviluppate su un certo formato di pacchetto, per il quale risultano disponibili spazi minori per l’implementazione dell’estrattore. Si è affrontato il problema costruendo un modello cinetostatico dell’estrattore, ricavando le specifiche di progetto attraverso contatti con il cliente e attraverso l’analisi della soluzione esistente. A causa dei limitati ingombri a disposizione per l’implementazione dell’estrattore, si divide il problema in due parti, progettando ed analizzando per ognuna un ampio ventaglio di soluzioni, tra le quali anche sistemi articolati, introducendo in seguito parametri di valutazione per scegliere le migliori. Si va poi a comporre le parti del problema a seconda delle proprie affinità ottenendo le soluzioni complete e scegliendo le più adatte al caso in esame. Infine si valuta la flessibilità delle soluzioni scelte verificando l’adattabilità ad un differente formato di pacchetto. Si individuano 2 soluzioni, tramite cinghie sincrone e quadrilatero articolato
Resumo:
Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.
Resumo:
L’elaborato ha l’obiettivo di analizzare lo sviluppo di un nuovo prodotto destinato al mercato delle macchine utensili ad elevata produttività, dette macchine transfer. Verranno esaminate le varie fasi che consentono la definizione del nuovo prodotto e delle relative specifiche. La tesi è divisa in due parti principali: -Analisi di mercato e design strategico, la quale consiste nell’analisi dei concorrenti e del mercato al fine di comprendere quali funzioni deve avare la macchina per poter essere competitiva. -Progettazione e ingegnerizzazione di una macchina con le caratteristiche precedentemente individuate, con approfondimento sui gruppi più importanti della stessa.
Resumo:
Individuare e conoscere la natura degli inquinanti atmosferici e disporre dei dati delle emissioni sono azioni fondamentali per formulare politiche ambientali incentrate sul miglioramento della qualità dell'aria e monitorarne l'efficacia. Sorge l'esigenza di un controllo costante della qualità dell'aria, processo che avviene utilizzando delle centraline di monitoraggio fisse sparse nelle vie delle maggiori città o nei pressi dei principali insediamenti industriali. Lo scopo di questo progetto è quello di realizzare una stazione di monitoraggio mobile al fine di aumentare la superficie di controllo, realizzando un oggetto dinamico capace di acquisire dati sull'inquinamento. Questo è stato fatto applicando ad un drone un sistema di sensori capaci di rilevare le variazioni dei livelli di concentrazione degli agenti inquinanti. Ciò permette di eliminare le stazioni di monitoraggio fisse, le quali rappresentano una spesa ingente. Inoltre, attraverso l'utilizzo di un drone, è possibile monitorare siti più vasti, permettendo un monitoraggio costante e ripetuto nel tempo. La prima parte dell'elaborato analizza il sistema Embedded utilizzato per l'acquisizione dei dati, concentrando l'attenzione prevalentemente sui moduli utilizzati. La seconda descrive quali sono i primi passi per cominciare ad utilizzare i sensori posti sulla Gases Board 2.0 e risponde ai dubbi più comuni su quali parametri di configurazione adottare per un avere una risposta adeguata, quale processo di calibrazione seguire o come trasformare i dati acquisiti, espressi in tensioni, in valori di concentrazione di gas. La terza parte illustra i test effettuati per verificare il corretto funzionamento del sistema completo, con l’esposizione delle problematiche individuate, e una presentazione delle alternative più valide per superarle.
Resumo:
Il rilevamento e l’analisi delle frodi è una delle attività cruciali per un sistema di carrier billing. Una frode non rilevata prontamente può causare ingenti danni economici, mentre un falso positivo porta ad uno spreco di tempo da parte del team di Reporting and Control. In questa tesi viene studiato il dominio di un Payment Service Provider (PSP) operativo nel settore del carrier billing, andando ad approfondire il sistema di rilevamento delle frodi basato sull’analisi di serie storiche con la tecnica Holt-Winters. Verrà fornita una panoramica sull’architettura del sistema seguita da alcuni esempi in cui la scarsa qualità delle predizioni ha causato una perdita economica o temporale al PSP. Verranno quindi proposte numerose soluzioni per estendere e migliorare il sistema attuale, concentrandosi principalmente sulla pulizia dei dati da analizzare e sullo sfruttamento di informazioni implicitamente contenute nei dati. I miglioramenti apportati possono essere divisi in due categorie: quelli che necessitano della supervisione dell’essere umano e quelli che possono essere ottenuti in modo automatico da un algoritmo. Alcune di queste soluzioni verranno implementate e commentate confrontando le prestazioni del sistema prima e dopo le varie implementazioni. Alcune proposte verranno invece trattate solamente a livello teorico ma faranno parte degli sviluppi futuri. Infine si cercherà di trarre delle conclusioni, dimostrando come nel dominio del carrier billing sia possibile ottenere prestazioni soddisfacenti grazie ad un filtraggio supervisionato dei dati delle serie storiche, mentre i tentativi di filtraggio non supervisionato hanno fornito risultati contrastanti.
Resumo:
Il progetto si propone di dotare la realta fisica di un estensione digitale. Sensori, attuatori e tecnologie embedded hanno cambiato il nostro modo di lavorare, allenarci e seguire i nostri interessi. Il mondo del commercio non e rimasto a guardare ed ha dovuto adattarsi alla metamorfosi high-tech del settore dei servizi. Il sistema proposto costituisce un promotore per acquisti ed un raccoglitore intelligente di abitudini sullo shopping e si compone di applicazione mobile, microcontroller e web server. Caratteristica prima e principale del progetto e sicuramente la pervasivita. All'utente ed utilizzatore dell'app dello shopping center deve essere certamente resa nota la collaborazione al fine di raccogliere dati statistici sulle sue abitudini, tuttavia sono le modalita di tale operazione a dover rimanere velate, in modo da non appesantire il cliente con tediose operazioni di invio di feedback e valutazioni ed allo stesso tempo permettere una raccolta capillare delle informazioni. Parallelamente alla raccolta di dati funzionali al producer, sono state implementate features per il consumatore, come notifiche promozionali place-triggered e pubblicita mirata. Tra tutte le tecnologie adibite allo scambio di informazioni, si e scelto l'utilizzo del Bluetooth e del piu recente Bluetooth Low Energy (BLE) per permettere ai dispositivi di comunicare tra loro.
Resumo:
In questo lavoro di tesi è presentato un metodo per lo studio della compartimentalizzazione dell’acqua in cellule biologiche, mediante lo studio dell’autodiffusione delle molecole d’acqua tramite uno strumento NMR single-sided. Le misure sono state eseguite nel laboratorio NMR all’interno del DIFA di Bologna. Sono stati misurati i coefficienti di autodiffusione di tre campioni in condizione bulk, ottenendo risultati consistenti con la letteratura. È stato poi analizzato un sistema cellulare modello, Saccharomyces cerevisiae, allo stato solido, ottimizzando le procedure per l’ottenimento di mappe di correlazione 2D, aventi come assi il coefficiente di autodiffusione D e il tempo di rilassamento trasversale T2. In questo sistema l’acqua è confinata e l’autodiffusione è ristretta dalle pareti cellulari, si parla quindi di coefficiente di autodiffusione apparente, Dapp. Mediante le mappe sono state individuate due famiglie di nuclei 1H. Il campione è stato poi analizzato in diluizione in acqua distillata, confermando la separazione del segnale in due distinte famiglie. L’utilizzo di un composto chelato, il CuEDTA, ha permesso di affermare che la famiglia con il Dapp maggiore corrisponde all’acqua esterna alle cellule. L’analisi dei dati ottenuti sulle due famiglie al variare del tempo lasciato alle molecole d’acqua per la diffusione hanno portato alla stima del raggio dei due compartimenti: r=2.3±0.2µm per l’acqua extracellulare, r=0.9±0.1µm per quella intracellulare, che è probabilmente acqua scambiata tra gli organelli e il citoplasma. L’incertezza associata a tali stime tiene conto soltanto dell’errore nel calcolo dei parametri liberi del fit dei dati, è pertanto una sottostima, dovuta alle approssimazioni connesse all’utilizzo di equazioni valide per un sistema poroso costituito da pori sferici connessi non permeabili. Gli ordini di grandezza dei raggi calcolati sono invece consistenti con quelli osservabili dalle immagini ottenute con il microscopio ottico.
Resumo:
Il lavoro di questa tesi si propone di esaminare i dati di immagini cerebrali ricevuti da due differentii bobine RF per l'imaging in risonanza magnetica. La strumentazione utilizzata é: un apparecchio di RMN che utilizza uno scanner a 1.5T (GE Medical System signa HDx 15) e due differenti bobine a radiofrequenza: 1) 8-channel brain phased array coil GE (1.5T HD 8 Channel High Resolution Head Array per il GE HDx MR System); 2) GE Quad HEAD Birdcage Coil. I software utilizzati invece sono stati quattro, due per la segmentazione e la parcellizzazione dei dati dalle acquisizioni di MRI (FSL e Freesurfer), e due per l'analisi dei dati (SPSS e Microsoft Excel). I tool utilizzati di FSL sono stati SIENA, per un'indagine sulla variazione percentile della totalitá del volume cerebrale; SIENAX invece permette una segmentazione di volumi di 6 sotto regioni: sostanza grigia (GREY), sostanza bianca (WHITE), totalitá del cervello (BRAIN), liquor cerebrospinale dei ventricoli (vcsf), scaling volumetrico (vscaling), sostanza grigia periferica (pgrey). Freesurfer invece parcellizza la corteccia cerebrale e segmenta le zone della sostanza grigia profonda cerebrale. Lo scopo ultimo era quello di analizzare come la differenza di segnale acquisito dalle due bobine variasse i risultati delle analisi volumetriche delle immagini e vedere se il t-test evidenziasse variazioni sistematiche. Questa analisi aveva come scopo quello di determinare la possibilità di confrontare i soggetti i cui dati sono stati ottenuti con due bobine differenti. I dati analizzati non hanno evidenziato particolari differenze tra le due bobine, se non per i valori del liquor dei ventricoli che sono risultati variare, verosimilmente, per i processi fisiologici di atrofia della sostanza grigia cerebrale che avvengono nel tempo intercorso tra un'acquisizione e l'altra.
Resumo:
La diffusione e l'evoluzione degli smartphone hanno permesso una rapida espansione delle informazioni che e possibile raccogliere tramite i sensori dei dispositivi, per creare nuovi servizi per gli utenti o potenziare considerevolmente quelli gia esistenti, come ad esempio quelli di emergenza. In questo lavoro viene esplorata la capacita dei dispositivi mobili di fornire, tramite il calcolo dell'altitudine possibile grazie alla presenza del sensore barometrico all'interno di sempre piu dispositivi, il piano dell'edificio in cui si trova l'utente, attraverso l'analisi di varie metodologie con enfasi sulle problematiche dello stazionamento a lungo termine. Tra le metodologie vengono anche considerati sistemi aventi accesso ad una informazione proveniente da un dispositivo esterno e ad una loro versione corretta del problema dei differenti hardware relativi ai sensori. Inoltre viene proposto un algoritmo che, sulla base delle sole informazioni raccolte dal sensore barometrico interno, ha obbiettivo di limitare l'errore generato dalla naturale evoluzione della pressione atmosferica durante l'arco della giornata, distinguendo con buona precisione uno spostamento verticale quale un movimento tra piani, da un cambiamento dovuto ad agenti, quali quelli atmosferici, sulla pressione. I risultati ottenuti dalle metodologie e loro combinazioni analizzate vengono mostrati sia per singolo campionamento, permettendo di confrontare vantaggi e svantaggi dei singoli metodi in situazioni specifiche, sia aggregati in casi d'uso di possibili utenti aventi diverse necessita di stazionamento all'interno di un edificio.
Resumo:
El objetivo de este trabajo de investigación fue describir y analizar las características antropométricas del plantel sub 15 del Club Atlético Juventud de Las Piedras y relacionarlas con sus posiciones dentro del campo de juego. Para llevar adelante este estudio se tomó una muestra de 24 jugadores de entre 14 y 15 años, ésta estuvo compuesta por 1 arquero, 9 defensas, 10 volantes y 5 delanteros. Las características antropométricas descritas y analizadas fueron las 5 masas del cuerpo: masa muscular, masa de tejido adiposo, masa ósea, masa residual y piel (protocolo de Kerr y Ross), el somatotipo (protocolo de Heat y Carter), además del peso y la talla. Para llevar adelante estos protocolos se necesitó recolectar datos de pliegues, perímetros, diámetros, peso y talla. El paradigma que sustenta esta investigación es el positivista y el modelo de investigación es el cuantitativo. El nivel que alcanza este trabajo es de tipo exploratorio. El somatotipo medio del equipo fue 2,5 - 3,9 - 2,9, que corresponde a la categoría mesomorfo balanceado. Para el puesto de arquero el somatotipo fue 4,3 - 5 - 2,5, endo mesomorfico. Para los defensas 2,6 - 4,1 - 3,2, meso ectomorfico. Para los volantes 2,5 - 3,9 - 3,8, ectomorfo mesomorfo y para los delanteros 2,6 - 4,6 - 2,7, mesomorfo balanceado. El porcentaje de tejido adiposo medio del equipo fue del 29,8 , para el puesto de arquero 34,1, para los defensas 29,1, para los volantes 30,18 y para los delanteros 26,65 . El tejido muscular medio fue de 40, para el puesto de arquero 39,2, para los defensas 41,6, para los volantes 39,4 y para los delanteros 43,1. El peso y la talla media del plantel fueron 58,1 kg. Y 169,1 cm. respectivamente. Para el puesto de arquero 58,8 kg. y 165 cm., para los defensas 61,5 kg. Y 171,3 cm., para los volantes 56,4 kg. Y 169,6 cm. y por último para los delanteros 55,6 kg. Y 163,3 cm. Como conclusiones podemos afirmar que el porcentaje de masa muscular encontrado en el plantel estuvo por debajo de la media si los comparamos con equipos de igual edad de la República Argentina, no se encontraron grandes diferencias en cuanto al peso y la talla entre las distintas 3 posiciones dentro del campo de juego, a no ser por los defensas que presenta mayor estatura y mayor peso. El puesto de arquero presenta mayor porcentaje de masa grasa. Como recomendaciones finales para futuras investigaciones se proponen entre otras indagar acerca de posibles causas que influyen en el perfil antropométrico actual de los deportistas evaluados y plantear aspectos dirigidos a optimizar el mismo, realizar un perfil completo de los deportistas y llevar adelante un estudio acerca del estado nutricional de los deportistas