999 resultados para classification de la marche


Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’utilizzo di nanomateriali, ovvero una nuova classe di sostanze composte da particelle ultrafini con dimensioni comprese fra 1 e 100 nm (American Society for Testing Materials - ASTM), è in costante aumento a livello globale. La particolarità di tali sostanze è rappresentata da un alto rapporto tra la superficie e il volume delle particelle, che determina caratteristiche chimico-fisiche completamente differenti rispetto alle omologhe macrosostanze di riferimento. Tali caratteristiche sono tali da imporre una loro classificazione come nuovi agenti chimici (Royal Society & Royal Academy of Engineering report 2004). Gli impieghi attuali dei nanomateriali risultano in continua evoluzione, spaziando in diversi ambiti, dall’industria farmaceutica e cosmetica, all’industria tessile, elettronica, aerospaziale ed informatica. Diversi sono anche gli impieghi in campo biomedico; tra questi la diagnostica e la farmacoterapia. È quindi prevedibile che in futuro una quota sempre maggiore di lavoratori e consumatori risulteranno esposti a tali sostanze. Allo stato attuale non vi è una completa conoscenza degli effetti tossicologici ed ambientali di queste sostanze, pertanto, al fine di un loro utilizzo in totale sicurezza, risulta necessario capirne meglio l’impatto sulla salute, le vie di penetrazione nel corpo umano e il rischio per i lavoratori conseguente al loro utilizzo o lavorazione. La cute rappresenta la prima barriera nei confronti delle sostanze tossiche che possono entrare in contatto con l’organismo umano. Successivamente agli anni ‘60, quando si riteneva che la cute rappresentasse una barriera totalmente impermeabile, è stato dimostrato come essa presenti differenti gradi di permeabilità nei confronti di alcuni xenobiotici, dipendente dalle caratteristiche delle sostanze in esame, dal sito anatomico di penetrazione, dal grado di integrità della barriera stessa e dall’eventuale presenza di patologie della cute. La mucosa del cavo orale funge da primo filtro nei confronti delle sostanze che entrano in contatto con il tratto digestivo e può venir coinvolta in contaminazioni di superficie determinate da esposizioni occupazionali e/o ambientali. È noto che, rispetto alla cute, presenti una permeabilità all’acqua quattro volte maggiore, e, per tale motivo, è stata studiata come via di somministrazione di farmaci, ma, ad oggi, pochi sono gli studi che ne hanno valutato le caratteristiche di permeazione nei confronti delle nanoparticelle (NPs). Una terza importante barriera biologica è quella che ricopre il sistema nervoso centrale, essa è rappresentata da tre foglietti di tessuto connettivo, che assieme costituiscono le meningi. Questi tre foglietti rivestono completamente l’encefalo permettendone un isolamento, tradizionalmente ritenuto completo, nei confronti degli xenobiotici. L’unica via di assorbimento diretto, in questo contesto, è rappresentata dalla via intranasale. Essa permette un passaggio diretto di sostanze dall’epitelio olfattivo all’encefalo, eludendo la selettiva barriera emato-encefalica. Negli ultimi anni la letteratura scientifica si è arricchita di studi che hanno indagato le caratteristiche di assorbimento di farmaci attraverso questa via, ma pochissimi sono gli studi che hanno indagato la possibile penetrazione di nanoparticelle attraverso questa via, e nessuno, in particolar modo, ha indagato le caratteristiche di permeazione delle meningi. L’attività di ricerca svolta nell’ambito del presente dottorato ha avuto per finalità l’indagine delle caratteristiche di permeabilità e di assorbimento della cute, della mucosa del cavo orale e delle meningi nei confronti di alcune nanoparticelle, scelte fra quelle più rappresentative in relazione alla diffusione d’utilizzo a livello globale. I risultati degli esperimenti condotti hanno dimostrato, in vitro, che l’esposizione cutanea a Pt, Rh, Co3O4 e Ni NPs determinano permeazione in tracce dei medesimi metalli attraverso la cute, mentre per le TiO2 NPs tale permeazione non è stata dimostrata. È stato riscontrato, inoltre, che la mucosa del cavo orale e le meningi sono permeabili nei confronti dell’Ag in forma nanoparticellare.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El trabajo desarrolla una propuesta metodológica para abordar los principales problemas que plantea el análisis de la mortalidad a partir de las expresiones diagnósticas que se recogen en las partidas de defunción de los registros parroquiales y civiles. La cuestión diacrónica o de recorrido cronológico de las expresiones es abordada desde las técnicas del análisis semántico documental y el estudio de sus tipologías demográfico-sanitarias. La agrupación de las diversas causas de muerte se resuelve con la utilización simultánea de la Segunda Nomenclatura de la Primera Clasificación de Causas de Muerte propuesta por Jacques Bertillon en 1899, y una modificación de la clasificación propuesta por Thomas McKeown en su conocida monografía sobre "El crecimiento moderno de la población".

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En una intersección todos los cruces de trayectorias, tanto de los vehículos como de los peatones que la utilizan, se realizan a nivel, produciéndose, por lo tanto, una coincidencia de movimientos en el tiempo y en el espacio. La geometría de la intersección condiciona las trayectorias que describen los vehículos y peatones. El análisis de estas trayectorias es el que permitirá la determinación de los puntos de conflicto y su clasificación en primarios, secundarios o terciarios. Este análisis es imprescindible para la toma de decisiones sobre las posibles mejoras de la intersección, tanto en lo concerniente a su geometría como al tipo de regulación necesaria.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El Slope Mass Rating (SMR, Romana, 1985) constituye una clasificación geomecánica de uso muy extendido para la caracterización de taludes en roca. Se obtiene por adición al índice RMR básico, calculado a partir de valores característicos del macizo rocoso, de una serie de factores de corrección dependientes del paralelismo discontinuidad-talud, del buzamiento de las discontinuidades, del buzamiento relativo entre las discontinuidades y el talud, así como del método de excavación empleado. En este trabajo se propone un método gráfico que permite obtener los parámetros de corrección del SMR (F1, F2 y F3) representando en proyección estereográfica los planos de discontinuidad y del talud a estudiar.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La cifra de personas que padecen epilepsia en España alcanza, según últimos datos publicados, los 400.000. Si bien cada año se diagnostican 20.000 casos nuevos en nuestro país, la epilepsia es la gran desconocida de las enfermedades por la sociedad. Las personas afectadas y sus familias conviven con una enfermedad que incapacita, en muchas ocasiones, al paciente en su actividad diaria. Es, en este aspecto, donde la morbilidad que rodea a la epilepsia es casi más perjudicial para los enfermos y familiares que la propia enfermedad que ha sido reconocida por la Organización Mundial de la Salud como “un importante problema de salud pública”. El actual trabajo, a partir del análisis de contenido de 159 noticias aparecidas en diferentes soportes on line, presenta cómo tratan la epilepsia los medios de comunicación y su impacto en la agenda de los públicos, así como los temas y el contexto de las noticias sobre la epilepsia en función de la clasificación de públicos que aportamos y que está basada en la Teoría Situacional de Grunig. El logro de estos objetivos, nos ha permitido conocer el grado de sensibilización de la epilepsia a partir del contenido de las noticias por tipo de público y la necesidad de que los medios de comunicación hagan de prescriptores e influenciadores con los actores políticos, para una comunicación afirmativa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper, we present a novel coarse-to-fine visual localization approach: contextual visual localization. This approach relies on three elements: (i) a minimal-complexity classifier for performing fast coarse localization (submap classification); (ii) an optimized saliency detector which exploits the visual statistics of the submap; and (iii) a fast view-matching algorithm which filters initial matchings with a structural criterion. The latter algorithm yields fine localization. Our experiments show that these elements have been successfully integrated for solving the global localization problem. Context, that is, the awareness of being in a particular submap, is defined by a supervised classifier tuned for a minimal set of features. Visual context is exploited both for tuning (optimizing) the saliency detection process, and to select potential matching views in the visual database, close enough to the query view.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El foco geográfico de un documento identifica el lugar o lugares en los que se centra el contenido del texto. En este trabajo se presenta una aproximación basada en corpus para la detección del foco geográfico en el texto. Frente a otras aproximaciones que se centran en el uso de información puramente geográfica para la detección del foco, nuestra propuesta emplea toda la información textual existente en los documentos del corpus de trabajo, partiendo de la hipótesis de que la aparición de determinados personajes, eventos, fechas e incluso términos comunes, pueden resultar fundamentales para esta tarea. Para validar nuestra hipótesis, se ha realizado un estudio sobre un corpus de noticias geolocalizadas que tuvieron lugar entre los años 2008 y 2011. Esta distribución temporal nos ha permitido, además, analizar la evolución del rendimiento del clasificador y de los términos más representativos de diferentes localidades a lo largo del tiempo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este artículo presenta un nuevo algoritmo de fusión de clasificadores a partir de su matriz de confusión de la que se extraen los valores de precisión (precision) y cobertura (recall) de cada uno de ellos. Los únicos datos requeridos para poder aplicar este nuevo método de fusión son las clases o etiquetas asignadas por cada uno de los sistemas y las clases de referencia en la parte de desarrollo de la base de datos. Se describe el algoritmo propuesto y se recogen los resultados obtenidos en la combinación de las salidas de dos sistemas participantes en la campaña de evaluación de segmentación de audio Albayzin 2012. Se ha comprobado la robustez del algoritmo, obteniendo una reducción relativa del error de segmentación del 6.28% utilizando para realizar la fusión el sistema con menor y mayor tasa de error de los presentados a la evaluación.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El artículo aborda de forma crítica y sucinta el recorrido de los estudios sobre historia de la traducción en España, partiendo tanto de los hitos bibliográficos como del recuento de la producción investigadora menor. Ante la dispersión temática existente y el incremento que durante las últimas décadas han experimentado estos estudios, la presente revisión historiográfica pone de manifiesto la necesidad de realizar en futuros trabajos una síntesis periodificadora y clasificadora que pueda ofrecer una perspectiva panorámica y práctica para la investigación y teorización.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La mayoría de los investigadores considera que las primeras expresiones publicitarias se remontan a la Antigüedad; otros creen desproporcionada esta visión tan larga. Un tercer grupo lo integran aquéllos que adoptan criterios eclécticos. En este trabajo el objetivo ha sido, por una parte, reflexionar sobre por qué la historia de la publicidad cuenta en España con tan escasos estudios; y, por otra, ha sido mostrar las diferentes y más representativas propuestas cronológicas, partiendo de una clasificación propia que ordena la Historia publicitaria en dos modelos: generalista y restrictivo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Hospitals attached to the Spanish Ministry of Health are currently using the International Classification of Diseases 9 Clinical Modification (ICD9-CM) to classify health discharge records. Nowadays, this work is manually done by experts. This paper tackles the automatic classification of real Discharge Records in Spanish following the ICD9-CM standard. The challenge is that the Discharge Records are written in spontaneous language. We explore several machine learning techniques to deal with the classification problem. Random Forest resulted in the most competitive one, achieving an F-measure of 0.876.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Alvar Aalto, Cedric Price, Jorn Utzon, Renzo Piano o Walter Gropius son algunos de los muchos arquitectos que en algún momento de su carrera han construido una casa crecedera, es decir, una unidad básica e incompleta que parte del desarrollo adaptativo y que por su tamaño se vuelve asequible en el mercado actual, abriendo así el proceso de proyecto y construcción a los usuarios. Cada arquitecto ha tenido distintas maneras de acercarse a este proceso en función del contexto y de las necesidades de los habitantes, consiguiendo así diferentes tipos de casas que crecen de múltiples formas. Este artículo se centra en la identificación de esos distintos mecanismos de ampliación para realizar una clasificación que tiene como objetivo entender por un lado el proceso del crecimiento desde el punto de vista morfológico a lo largo del último siglo y por otro indicar como las transformaciones de la vivienda afectan directamente a la imagen urbana.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper proposes a new feature representation method based on the construction of a Confidence Matrix (CM). This representation consists of posterior probability values provided by several weak classifiers, each one trained and used in different sets of features from the original sample. The CM allows the final classifier to abstract itself from discovering underlying groups of features. In this work the CM is applied to isolated character image recognition, for which several set of features can be extracted from each sample. Experimentation has shown that the use of CM permits a significant improvement in accuracy in most cases, while the others remain the same. The results were obtained after experimenting with four well-known corpora, using evolved meta-classifiers with the k-Nearest Neighbor rule as a weak classifier and by applying statistical significance tests.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Prototype Selection (PS) algorithms allow a faster Nearest Neighbor classification by keeping only the most profitable prototypes of the training set. In turn, these schemes typically lower the performance accuracy. In this work a new strategy for multi-label classifications tasks is proposed to solve this accuracy drop without the need of using all the training set. For that, given a new instance, the PS algorithm is used as a fast recommender system which retrieves the most likely classes. Then, the actual classification is performed only considering the prototypes from the initial training set belonging to the suggested classes. Results show that this strategy provides a large set of trade-off solutions which fills the gap between PS-based classification efficiency and conventional kNN accuracy. Furthermore, this scheme is not only able to, at best, reach the performance of conventional kNN with barely a third of distances computed, but it does also outperform the latter in noisy scenarios, proving to be a much more robust approach.