1000 resultados para Comunicaciones digitales
Resumo:
Résumé Suite aux recentes avancées technologiques, les archives d'images digitales ont connu une croissance qualitative et quantitative sans précédent. Malgré les énormes possibilités qu'elles offrent, ces avancées posent de nouvelles questions quant au traitement des masses de données saisies. Cette question est à la base de cette Thèse: les problèmes de traitement d'information digitale à très haute résolution spatiale et/ou spectrale y sont considérés en recourant à des approches d'apprentissage statistique, les méthodes à noyau. Cette Thèse étudie des problèmes de classification d'images, c'est à dire de catégorisation de pixels en un nombre réduit de classes refletant les propriétés spectrales et contextuelles des objets qu'elles représentent. L'accent est mis sur l'efficience des algorithmes, ainsi que sur leur simplicité, de manière à augmenter leur potentiel d'implementation pour les utilisateurs. De plus, le défi de cette Thèse est de rester proche des problèmes concrets des utilisateurs d'images satellite sans pour autant perdre de vue l'intéret des méthodes proposées pour le milieu du machine learning dont elles sont issues. En ce sens, ce travail joue la carte de la transdisciplinarité en maintenant un lien fort entre les deux sciences dans tous les développements proposés. Quatre modèles sont proposés: le premier répond au problème de la haute dimensionalité et de la redondance des données par un modèle optimisant les performances en classification en s'adaptant aux particularités de l'image. Ceci est rendu possible par un système de ranking des variables (les bandes) qui est optimisé en même temps que le modèle de base: ce faisant, seules les variables importantes pour résoudre le problème sont utilisées par le classifieur. Le manque d'information étiquétée et l'incertitude quant à sa pertinence pour le problème sont à la source des deux modèles suivants, basés respectivement sur l'apprentissage actif et les méthodes semi-supervisées: le premier permet d'améliorer la qualité d'un ensemble d'entraînement par interaction directe entre l'utilisateur et la machine, alors que le deuxième utilise les pixels non étiquetés pour améliorer la description des données disponibles et la robustesse du modèle. Enfin, le dernier modèle proposé considère la question plus théorique de la structure entre les outputs: l'intègration de cette source d'information, jusqu'à présent jamais considérée en télédétection, ouvre des nouveaux défis de recherche. Advanced kernel methods for remote sensing image classification Devis Tuia Institut de Géomatique et d'Analyse du Risque September 2009 Abstract The technical developments in recent years have brought the quantity and quality of digital information to an unprecedented level, as enormous archives of satellite images are available to the users. However, even if these advances open more and more possibilities in the use of digital imagery, they also rise several problems of storage and treatment. The latter is considered in this Thesis: the processing of very high spatial and spectral resolution images is treated with approaches based on data-driven algorithms relying on kernel methods. In particular, the problem of image classification, i.e. the categorization of the image's pixels into a reduced number of classes reflecting spectral and contextual properties, is studied through the different models presented. The accent is put on algorithmic efficiency and the simplicity of the approaches proposed, to avoid too complex models that would not be used by users. The major challenge of the Thesis is to remain close to concrete remote sensing problems, without losing the methodological interest from the machine learning viewpoint: in this sense, this work aims at building a bridge between the machine learning and remote sensing communities and all the models proposed have been developed keeping in mind the need for such a synergy. Four models are proposed: first, an adaptive model learning the relevant image features has been proposed to solve the problem of high dimensionality and collinearity of the image features. This model provides automatically an accurate classifier and a ranking of the relevance of the single features. The scarcity and unreliability of labeled. information were the common root of the second and third models proposed: when confronted to such problems, the user can either construct the labeled set iteratively by direct interaction with the machine or use the unlabeled data to increase robustness and quality of the description of data. Both solutions have been explored resulting into two methodological contributions, based respectively on active learning and semisupervised learning. Finally, the more theoretical issue of structured outputs has been considered in the last model, which, by integrating outputs similarity into a model, opens new challenges and opportunities for remote sensing image processing.
Resumo:
Recognition and identification processes for deceased persons. Determining the identity of deceased persons is a routine task performed essentially by police departments and forensic experts. This thesis highlights the processes necessary for the proper and transparent determination of the civil identities of deceased persons. The identity of a person is defined as the establishment of a link between that person ("the source") and information pertaining to the same individual ("identifiers"). Various identity forms could emerge, depending on the nature of the identifiers. There are two distinct types of identity, namely civil identity and biological identity. The paper examines four processes: identification by witnesses (the recognition process) and comparisons of fingerprints, dental data and DNA profiles (the identification processes). During the recognition process, the memory function is examined and helps to clarify circumstances that may give rise to errors. To make the process more rigorous, a body presentation procedure is proposed to investigators. Before examining the other processes, three general concepts specific to forensic science are considered with regard to the identification of a deceased person, namely, matter divisibility (Inman and Rudin), transfer (Locard) and uniqueness (Kirk). These concepts can be applied to the task at hand, although some require a slightly broader scope of application. A cross comparison of common forensic fields and the identification of deceased persons reveals certain differences, including 1 - reverse positioning of the source (i.e. the source is not sought from traces, but rather the identifiers are obtained from the source); 2 - the need for civil identity determination in addition to the individualisation stage; and 3 - a more restricted population (closed set), rather than an open one. For fingerprints, dental and DNA data, intravariability and intervariability are examined, as well as changes in these post mortem (PM) identifiers. Ante-mortem identifiers (AM) are located and AM-PM comparisons made. For DNA, it has been shown that direct identifiers (taken from a person whose civil identity has been alleged) tend to lead to determining civil identity whereas indirect identifiers (obtained from a close relative) direct towards a determination of biological identity. For each process, a Bayesian model is presented which includes sources of uncertainty deemed to be relevant. The results of the different processes combine to structure and summarise an overall outcome and a methodology. The modelling of dental data presents a specific difficulty with respect to intravariability, which in itself is not quantifiable. The concept of "validity" is, therefore, suggested as a possible solution to the problem. Validity uses various parameters that have an acknowledged impact on teeth intravariability. In cases where identifying deceased persons proves to be extremely difficult due to the limited discrimination of certain procedures, the use of a Bayesian approach is of great value in bringing a transparent and synthetic value. RESUME : Titre: Processus de reconnaissance et d'identification de personnes décédées. L'individualisation de personnes décédées est une tâche courante partagée principalement par des services de police, des odontologues et des laboratoires de génétique. L'objectif de cette recherche est de présenter des processus pour déterminer valablement, avec une incertitude maîtrisée, les identités civiles de personnes décédées. La notion d'identité est examinée en premier lieu. L'identité d'une personne est définie comme l'établissement d'un lien entre cette personne et des informations la concernant. Les informations en question sont désignées par le terme d'identifiants. Deux formes distinctes d'identité sont retenues: l'identité civile et l'identité biologique. Quatre processus principaux sont examinés: celui du témoignage et ceux impliquant les comparaisons d'empreintes digitales, de données dentaires et de profils d'ADN. Concernant le processus de reconnaissance, le mode de fonctionnement de la mémoire est examiné, démarche qui permet de désigner les paramètres pouvant conduire à des erreurs. Dans le but d'apporter un cadre rigoureux à ce processus, une procédure de présentation d'un corps est proposée à l'intention des enquêteurs. Avant d'entreprendre l'examen des autres processus, les concepts généraux propres aux domaines forensiques sont examinés sous l'angle particulier de l'identification de personnes décédées: la divisibilité de la matière (Inman et Rudin), le transfert (Locard) et l'unicité (Kirk). Il est constaté que ces concepts peuvent être appliqués, certains nécessitant toutefois un léger élargissement de leurs principes. Une comparaison croisée entre les domaines forensiques habituels et l'identification de personnes décédées montre des différences telles qu'un positionnement inversé de la source (la source n'est plus à rechercher en partant de traces, mais ce sont des identifiants qui sont recherchés en partant de la source), la nécessité de devoir déterminer une identité civile en plus de procéder à une individualisation ou encore une population d'intérêt limitée plutôt qu'ouverte. Pour les empreintes digitales, les dents et l'ADN, l'intra puis l'inter-variabilité sont examinées, de même que leurs modifications post-mortem (PM), la localisation des identifiants ante-mortem (AM) et les comparaisons AM-PM. Pour l'ADN, il est démontré que les identifiants directs (provenant de la personne dont l'identité civile est supposée) tendent à déterminer une identité civile alors que les identifiants indirects (provenant d'un proche parent) tendent à déterminer une identité biologique. Puis une synthèse des résultats provenant des différents processus est réalisée grâce à des modélisations bayesiennes. Pour chaque processus, une modélisation est présentée, modélisation intégrant les paramètres reconnus comme pertinents. À ce stade, une difficulté apparaît: celle de quantifier l'intra-variabilité dentaire pour laquelle il n'existe pas de règle précise. La solution préconisée est celle d'intégrer un concept de validité qui intègre divers paramètres ayant un impact connu sur l'intra-variabilité. La possibilité de formuler une valeur de synthèse par l'approche bayesienne s'avère d'une aide précieuse dans des cas très difficiles pour lesquels chacun des processus est limité en termes de potentiel discriminant.
Resumo:
Hace un par de años poca gente conocía las licencias Creative Commons, pero actualmente este término empieza a ser asociado a un estándar de licencias para obras digitales libres en la red, de la misma manera que las licencias del proyecto GNU (GPL, LGPL)2 se asocian a un estándar para el software libre.
Resumo:
Debe reconocerse que en estos años próximos al fin del milenio la publicación de estudios sobre el mundo ibérico goza de excelente salud, cuando menos en volumen. Artículos, ponencias y comunicaciones amenazan con abrumar al lector más impenitente. Por ello resulta aleccionador acudir al meritorio trabajo de Fernando Quesada: "La cultura ibérica: una aproximación bibliográfica (1992-1993)", RE/b, 1, 1994, 335-377, que reúne la producción en revistas y series no excesivamente locales -imposibles de controlar, por otro lado-, y comprobar un balance de unos doscientos títulos anuales. Ahora bien, si consideramos el número de monografías, nos situaremos en un plano selectivo, que rondará la docena al año. Diversos factores -y entre ellos la desidia de diferentes niveles administrativos y académicos- parecen confabularse para que no se disponga de un conjunto de memorias impresas proporcional al volumen de excavaciones realizadas en las dos últimas décadas.
Resumo:
Frente a los discursos que anuncian el final de la lectura y la muerte del lector, hay razones para pensar que la lectura va a ser también en la sociedad de la información uno de los instrumentos fundamentales para comunicarnos, pensar, aprender y atribuir sentido a las experiencias propias y ajenas. Sin embargo, hay también pocas dudas de que en este nuevo escenario, y de la mano sobre todo de las tecnologías digitales de la información y la comunicación y los textos electrónicos, se están produciendo cambios importantes en la definición del texto, del autor, del lector, de los modos de leer y de las prácticas de lectura. El concepto mismo de alfabetismo, de lo que significa estar alfabetizado en la cultura escrita, está en proceso de cambio y transformación. Por una parte, el concepto de alfabetismo se expande y, al lado de la alfabetización relativa a la cultura letrada, empiezan a tomar cuerpo otros alfabetismos relacionados con la cultura tecnológica y demás elementos característicos de la sociedad de la información. Por otra parte, junto con esta expansión o ensanchamiento del concepto, se produce una transformación de lo que significa y exige el hecho de estar alfabetizado en la cultura letrada. Internet y los textos electrónicos modifican los elementos básicos que intervienen en los procesos de lectura comprensiva. Ahora bien, la emergencia de nuevos alfabetismos, así como los conocimientos y habilidades que plantea la exigencia del alfabetismo en los textos electrónicos, comporta inexorablemente el riesgo de sus correspondientes analfabetismos. Este riesgo es tanto mayor cuanto que la realidad sobre la que se proyectan estas necesidades de alfabetización sigue estando marcada por graves carencias en el dominio y las prácticas de la lectura entre amplios sectores de la población.
Resumo:
Por medio de técnicas de tratamiento de imágenes digitales se realiza un estudio de los efectos producidos por una inundación ocurrida a finales del año 1982 en el valle del río Segre, en Catalunya, a partir de la información multiespectral captada por el sensor TM del satélite LANDSAT-4. Utilizando un programa de clasificación no supervisada basado en la distancia euclídea, se diferencian cuatro tipos de suelo o de cubiertas en el rea de estudio (3.8 x 2.3 km). Se efecta un análisis cuantitativo de la calidad de los resultados, usando como referencia la información obtenida en un estudio de campo. Este análisis muestra un alto grado de correspondencia entre el mapa de campo (verdad terreno) y la cartografía realizada a partir de los datos multiespectrales.
Resumo:
Esta investigación estudia el análisis de citaciones utilizadas por los autores que publican dentro de la revista Ciência da Informação, de donde fueron recuperados 278 artículos científicos en el periodo de 1995 a 2003. En relación al método, utilizamos un fichero en Excel para cuantificar los datos, donde dividimos por género de citas bibliográficas. Se han aplicado técnicas cuantitativas de investigación para analizar las citas de las revistas utilizadas, trabajando con el factor de impacto de las revistas ISI y algunas del SciELO. Otro aspecto fue analizar las citas de libros, tesis, actas de congresos, documentos electrónicos y comunicaciones, que son una fuente fundamental en la confección de un trabajo científico. Posteriormente se investigaron las relaciones y la colaboración institucional de los autores que publican dentro de la revista Ciência da Informação, utilizando el programa Pajek. Y por fin observamos la relación entre las palabras-clave empleadas por los autores que publicaron en la revista, con las temáticas de revistas indizadas en ISI, SciELO y Latindex. Para las conclusiones, destacamos que el mejor periodo de las citas utilizadas fue de 1996 hasta 1998, con una fuerte presencia de revistas ISI y de la propia revista Ciência da Informação.
Resumo:
El objetivo del artículo se dirige a describir la transformación de las bibliotecas escolares en CREA (Centros de Recursos para la Enseñanza y Aprendizaje), como modo de cumplir una función eficaz en la Educación para la Sociedad del Conocimiento. El estudio se realiza en el caso español, por lo que se aborda el desarrollo legislativo para comprender la situación actual de las bibliotecas escolares en España, como un estado del arte, para presentar luego el modelo teórico, la definición y aspectos organizativos del CREA. El gran reto es la conversión de la biblioteca escolar en una biblioteca digital educativa, por lo que el artículo analiza las disfunciones de la biblioteca escolar en los nuevos entornos tecnológicos, los problemas que se plantean en la transformación, los elementos sobre los que descansará la transformación, para finalmente presentar una propuesta de los instrumentos actualmente existentes y eficaces para la gestión de contenidos digitales educativos y la organización del conocimiento en la biblioteca digital educativa que será el CREA.
Resumo:
Las exostosis suelen aparecer en cualquier hueso de origen cartilaginoso. Por lo general las exostosis digitales se manifiestan en forma de lesiones subungueales, pero no exclusivamente así. El término de sobra conocido como exostosis subungueal puede modificarse en virtud de la naturaleza de la lesión. En algunos casos, la tumoración no es subungueal; no se encuentra bajo la uña ni crea alteración de la misma. Las lesiones pueden aparecer en la región periungueal sin gran alteración de la uña en sí. Es precisamente a este grupo, en el que se basa este artículo. Aunque en un principio el tema podría parecer demasiado abordado, creo que al visualizar el alcance que puede llegar a tener esta lesión (en particular este caso clínico) puede llamar la atención.
Resumo:
Lejos de Intentar abarcar toda la patología del pie geriátrico y sus tratamientos, con este trabajo nos proponemos destacar únicamente aquellos aspectos específicos del pie del mayor que se deben tener en cuenta a la hora de realizar una exploración biomecánica y aplicar un tratamiento ortopodológico a este tipo de pacientes. Abordamos, por tanto, las particularidades de la patología mecánica del pie geriátrico, de la exploración del paciente anciano, y del tratamiento ortopodológico, tanto de las ortesis plantares como las digitales, así como de las características del calzado que permitan un ajuste adecuado entre el pie, el zapato y la ortesis, destacando la importancia de aquellas características especiales que diferenciarán este tipo de pie del pie infantil o adulto.
Resumo:
Resumen: El artículo analiza los problemas de accesibilidad que actualmente presentan los artículos científicos en soporte digital. El estudio se centra en los aspectos de facilidad de uso del contenido de los documentos digitales según la forma en que se publiquen, sin entrar en el estudio de los distintos sistemas de recuperación. Se analizan los dos formatos más utilizados para la publicación de artículos científicos en soporte digital: HTML y PDF, estudiando el desempeño lector en relación a la presencia de sumarios o de tablas internas o vinculadas. El estudio se ha realizado con dos colectivos: 30 sujetos ciegos, usuarios de Jaws, contactados gracias a la mediación de la Fundación ONCE, y 30 sujetos no ciegos, profesores del Departamento de Biblioteconomía y Documentación de la Universidad de Barcelona. El estudio muestra que la localización de los datos contenidos en tablas se ve facilitada en documentos HTML por la inclusión de un sumario que vincule con la tabla, así como la inclusión de tablas completas en el cuerpo del documento HTML facilita la actividad lectora por parte de los usuarios ciegos. A nivel metodológico la presente investigación aporta dos novedades relevantes respecto a la literatura existente en los estudios de usabilidad con ciegos: estudia la usabilidad del formato PDF y es un test de usabilidad cuantitativo; este último hecho dificulta su comparación con la mayoría de artículos publicados. Abstract: This paper analyses the problems of accessibility posed by scientific articles published in digital format, focusing on the ease of use of their content with respect to the form in which they are published (irrespective of the recovery system). The two most widely used formats for the publication of scientific articles in digital format, HTML and PDF, are analysed, examining reader performance in relation to the presence of contents lists or internal or linked tables. The study involved two groups: 30 blind subjects, all JAWS users, contacted through the ONCE Foundation, and 30 sighted subjects, lecturers in the Department of Librarianship and Documentation of the University of Barcelona. The results shows the location of data in tables is easier in HTML documents through the inclusion of a contents list linked to these tables. Further, the inclusion of complete tables in the body of HTML document facilitates the reading activity of blind users. At the methodological level, this work reports two novelties with respect to the existing literature on usability by blind people: it examines the usability of the PDF format, and discusses a quantitative usability test. The latter hinders comparison with the majority of published articles.
Resumo:
El texto que sigue resulta de una re-construcción de cuatro aproximaciones -biomédica-evolutiva, crítica, hermenéutico-construccionista y post-estructural- a la educación en medios con jóvenes en contextos educativos formales, entendida ésta en un sentido amplio como la enseñanza y aprendizaje de los medios de comunicación analógicos y digitales. Uno de los propósitos de la re-construcción tiene que ver, en primer lugar con la visibilización de la diversidad de opciones y epistemologías disponibles a la hora de plantear un escenario formativo en educación con medios, y con las posibilidades formativas que dicha multiplicidad nos ofrece...
Resumo:
Aquest projecte intenta afirmar la viabilitat de les noves eines digitals, en concret el blog i el wiki, com a complement útil en el desenvolupament de les competències relacionades amb l'aprenentatge i ensenyament de la llengua i la literatura catalanes.
Resumo:
Abstract¿La deteción del espectro libre para las comunicaciones inalámbricas en un momento puntual es una tarea compleja cuyo desarrollo se simplica al realizarse de forma distribuida por una red de radio cognitiva. Sin embargo existes dificultades y vulnerabilidades de seguridad que han de ser tenidas en cuenta y solventadas a la hora de autenticar y validar los nodos de la red. Este artículo presenta una propuesta de mejora del protocolo fully distributed decision making protocol for CRN con el fin de llevar a cabo esta tarea de detección del espectro de una manera eficiente y segura.
Resumo:
El texto que se presenta muestra cómo se lleva a cabo la gestión de los libros electrónicos en la Biblioteca Virtual (en adelante BV) de la Universitat Oberta de Catalunya (en adelante UOC). La BV pone especial énfasis en la adquisición de libros digitales para mejorar el acceso de los usuarios a los recursos y a lascolecciones de una universidad caracterizada por su virtualidad. El documento presenta, en primer lugar, el entorno en el que se adquieren y se utilizan los libros electrónicos: se describen los distintos escenarios de adquisición en los que se puede encontrar la BV y se definen los circuitos internos que permiten su gestión, así como los procesos técnicos de los documentos. A continuación, se muestran las distintas opciones de acceso y consulta de libros electrónicos que actualmente se ofrecen desde la BV y se exponenlos análisis de uso de dichos documentos. Por último, se presentan las conclusiones a las que llega la BV sobre el nuevo contexto de libros electrónicos.