858 resultados para PROTECCIÓN DE DATOS-LEGISLACIÓN


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Éste trabajo de grado tiene una importancia personal muy especial relacionada precisamente con esa búsqueda por entender el rol del individuo en la sociedad y de la cultura en los procesos de construcción humana. ¿Como se entienden ahora los individuos de dos culturas tan diferentes como la de un colombiano, la de un nativo de Kazakistán, la de un inglés, la de un saudi? ¿Y cómo pueden estar permanentemente unidos por una red que pareciese que hablara el mismo lenguaje? Para contestar estas preguntas, que son de otra índole y corresponderían a un ejercicio intelectual de otra disciplina, es importante empezar analizando -con una visión desde la óptica de los negocios internacionales-, cómo funciona una estrategia de e-business desde Colombia hacia el mundo. En este trabajo de grado se intenta dar cuenta de la importancia del uso de esta herramienta en la forma del B2B en un negocio asociado con la exportación de servicios colombianos y latinoamericanos, como un mecanismo para el mejoramiento y fortalecimiento del negocio internacional.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Las iniciativas regulatorias de protección a los usuarios, adoptadas por países con mercados en ambiente convergente, se basan entre otras, en el establecimiento de comités consultivos para el consumidor y foros para promover su participación en la formación de políticas, imposición de la obligación de servicio universal, desarrollo de agendas específicas sobre los objetivos prioritarios de la política, introducción de iniciativas regulatorias específicas para mejorar opciones del consumidor, como la preselección y portabilidad numérica, el desarrollo de estándares y códigos de asuntos relacionados con consumidores por parte de la industria, el desarrollo y funcionamiento de programas de educación del consumidor, que incluyen difusión de información sobre la calidad, el establecimiento de nuevos indicadores de calidad, y la creación de programas específicos para aspectos relacionados con Internet y el comercio electrónico tales como la privacidad, el fraude y leyes cibernéticas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La presente investigación analiza los principales retos que afectan la cooperación e integración de los cuerpos policiales latinoamericanos en la lucha contra el narcotráfico. Para realizar dicho análisis se toma como caso de estudio AMERIPOL, organización creada en el año 2007 y que actualmente constituye el único mecanismo de cooperación policial en el hemisferio americano. Se considera que la cooperación e integración de los cuerpos policiales en la lucha contra el narcotráfico en la región enfrentan dos retos principales: la disparidad de los marcos jurídicos entre los Estados y la descoordinación política. Estos retos suponen la existencia de factores que impiden una política de cooperación conjunta contra las drogas y por tanto, el desarrollo de actitudes aislacionistas que limitan la cooperación en contra de éste flagelo

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Realizado en la Facultad de Derecho de Salamanca, por 4 profesores del centro, para las asignaturas de Derecho Civil II y IV; Fundamentos de Derecho Civil Patrimonial e Introducción al Derecho. El objetivo era crear herramientas nuevas basadas en las nuevas tecnologías para la enseñanza del Derecho, creando asignaturas nuevas y complementarias a las que ya existían y organizando actividades especiales que complementen la formación de los alumnos. Para la impartición de las asignaturas de Derecho Civil a través de las Nuevas Tecnologías se han creado: páginas Web, una recopilación en CD de la normativa sobre el Derecho y las Nuevas Tecnologías y una asignatura de libre elección que se imparte totalmente on-line a través de la plataforma de la Universidad de Salamanca. También se han organizado unas Jornadas específicas sobre Comercio Electrónico y Protección de Datos. El proyecto ha resultado satisfactorio ya que ha existido una gran participación de los alumnos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Resumen tomado de la publicación

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Material didáctico elaborado para el curso de ética dado en Alicante en 1991, para la enseñanza de la educación moral y cívica en la educación secundaria obligatoria. Tiene como objetivos fundamentales formar alumnos conscientes, solidarios y responsables. Esta formado por 9 volúmenes: 1. La génesis de los valores morales : su historicidad y universalidad de Eduardo Fernández Palacio, que cuenta con seis unidades didácticas cada una de las cuales incluye una serie de actividades a realizar por el alumno. 2. Autonomía y heteronomía moral a partir del análisis de problemas de la juventud, elaborada por Victorina Díaz Díaz, que desarrolla el tema a través de diferentes actividades en las que se analizan temas como la drogadicción, sectas, pasotismo, competitividad. 3.Principales teorías éticas de Alberto Hidalgo que consta de seis unidades didácticas con sus actividades sobre las teorías éticas, su clasificación y su fundamentación. 4. Problemas éticos de nuestro tiempo, que contiene el trabajo de Tomás García López sobre la Discrimnación económica : trabajo y propiedad. 5 y 6. Algunos proyectos éticos contemporáneos, con las unidades didácticas elaboradas por Amalio Calvo sobre los derechos humanos titulado Intimidad y protección de datos informáticos y, sobre la paz y el pacifismo de Román García Fernandez titulado El conocimiento mundano de la paz y su alcance. 7. La autoridad y su legitimación. Las leyes: necesidad de obedecerlas y desobediencia legítima elaborada por Primitivo Cancio Muiña. 8. La religión como hecho individual y social de José Ignacio Fernández del Castro y 9. El arte en la guerra : algunas manifestaciones en la pintura española y europea contemporánea de Armando López Roca. Todos los volúmenes son materiales de educación para la paz, tema transversal estudiado en las distintas áreas de: ciencias sociales, geografía e historia y educación plástica y visual.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Resumen basado en el de la publicación

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este estudio presenta los aspectos importantes que han sido incorporados o modificados con una serie de reformas tributarias encaminadas en el país desde diciembre de 2007, para estimar la orientación que está tomando el ordenamiento jurídico tributario nacional. No se deja de lado la entrada en vigencia de la Constitución de la República del Ecuador de 2008. En este contexto, trata de ubicar los elementos que habrían fortalecido -económica e institucionalmente- al Estado y, aquellos que mejorarían o empeorarían la situación de los contribuyentes. Analiza además la importancia de la Acción Extraordinaria de Protección (AEP) para la defensa del derecho al debido proceso con ocasión de controversias de índole tributaria y, el papel de la Corte Constitucional en este campo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Incluye Bibliografía

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La historia clínica se considera un documento primordial en un sistema de salud, brindando información asistencial, preventiva y social, ya que constituye el registro completo de la atención prestada al paciente, de lo que se deriva su trascendencia como documento legal.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La crisis vivida a finales de 2001, marcó el fracaso del modelo neoliberal implementado durante más de una década en nuestro país. A partir de allí comenzaron a reestructurarse las políticas públicas, iniciando una época de grandes cambios. En lo que constituye al objeto de estudio, es relevante mencionar la sanción de la Ley Nacional de Educación N° 26.206 en el año 2006, que instauró a la educación como un derecho personal y social, en el cual el Estado pasó a ser el principal responsable de brindar “una educación integral, permanente y de calidad, gratuidad y equidad". Dicha Ley, junto a la implementación de la Asignación Universal por Hijo, entraron en vigencia en el año 2010. Estas dos políticas forman parte de un cuerpo de medidas que tienen como principal objetivo mejorar las condiciones de vida de los habitantes de nuestro país, al generar cambios tanto en la política de protección social como en la educativa. El tema central que aborda esta investigación es la Asignación Universal por Hijo (AUH)1 y su incidencia en el ámbito educativo. Esta medida, sancionada a través del Decreto N°1602 del año 2009, establece un subsistema no contributivo en el marco de la Ley N° 24714 de Asignaciones Familiares, ampliando la cobertura de la misma a los menores de 18 años, cuyos padres se encuentren desempleados, sean monotributistas sociales, trabajadores del servicio doméstico o del mercado informal. Incorporando, de esta manera, a un sector de la población que antes quedaba relegado. Actualmente, consiste en un pago mensual de $460 por cada hijo menor de 18 años (hasta un máximo de 5), y $1500 a cada persona discapacitada.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En este Proyecto de fin de carrera titulado: LA VÍDEOVIGILANCIA: TECNOLOGÍAS ACTUALES Y ASPECTOS SOCIOPOLÍTICOS, tiene como objetivo hacer un estudio en los sistemas dedeovigilancia basado en cámaras-IP, con fines de seguridad, control o supervisión. Nos basaremos en exponer los sistemas Vídeovigilancia basados en cámara-IP actuales de ultima generación, cuya principal virtud de estos sistemas, es la comunicación con otros lugares, o espacios públicos como privados y poder visualizar tanto en vivo como en diferido lo que este pasando en ese lugar y en ese momento o haya pasado a través del protocolo de comunicación-IP. Se explicara desde el más básico al más complejo sistema de videovigilancia-IP, también explicaremos su puesta en practica mediante los múltiples interconexiones que estos conlleven. Llegando a este punto, se nos plantea las siguientes cuestiones que da origen a este PFC. Estos sistemas dedeovigilancia-IP, captan las imágenes por medio de las cámaras-IP, proporcionando su facilidad tanto de visionado/grabacion, como de control, ya que no es necesario estar presente e interactuando con otros sistemas digitales de diverso índole actuales, gracias al protocolo-IP. Estos sistemas-IP, tienen su puesta en práctica mediante las instalaciones requeridas ,estas podrán ser sencillas o muy complejas de todos los sistemas-IP. Debido al gran aumento masivo, las tecnologías actuales de diverso índole de cámaras-IP en materia de la vídeovigilancia en lugares públicos, y privados en nuestra sociedad actual, lo hace un medio particularmente invasivo y por ello resulta necesario tanto la concurrencia de condiciones que legitimen los tratamientos de datos de personas identificables, como la definición de los principios y garantías que deban aplicarse ya que estas, repercutirán sobre los derechos de las personas, lo que obligara a fijar ciertas garantías. Se nos plantea los casos en los que la captación y/o tratamiento de imágenes con fines dedeovigilancia que pertenezcan a personas identificadas o identificables, ha obligado a España, y según dispuesto por la Directiva 95/46/CE del Parlamento Europeo, a regularizar esta situación mediante la Ley Orgánica de Protección de Datos (LOPD) 15/1999 de 13 de diciembre, bajo los procedimientos del Estado español en materia sociopolítica, y dando vigor a esta ley, mediante la aprobación de la Instrucción 1/2006 de 8 de noviembre de 2006, cuyo máximo organismo es la Agencia española de Protección de Datos (AGPD). Una vez planteada la motivación y justificación del proyecto, se derivan unos objetivos a cumplir con la realización del mismo. Los objetivos del proyecto se pueden diferenciar en dos clases principalmente. Los objetivos principales y objetivos secundarios. Los objetivos principales de este PFC, nacen directamente de las necesidades planteadas originalmente en materia dedeovigilancia, tanto tecnológicamente basado en las cámaras-IP en la captación y/o tratamiento de imágenes, así como sociopolíticamente donde trataremos de describirlo mediante las indicaciones y criterios con casos prácticos y de cómo deben de aplicarse según la instrucción 1/2006 mediante la LOPD en materia dedeovigilancia, en cuanto a la protección de datos que puedan repercutir sobre el derecho de las personas. Por otra parte los objetivos secundarios, son la extensión del objetivo primario y son de orden cuantificador en este PFC, dando una explicación más exhaustiva del objetivo principal. ABSTRACT In this final year project, entitled: THE VIDEOSURVEILLANCE: CURRENT TECHNOLOGIES AND POLITICALSOCIALS ASPECTS, aims to make a study of video surveillance systems based on IP cameras, for security, control or supervision. We will rely on to expose the camera based video surveillance systems IP-current last generation, whose main virtue of these systems, is communication with other places, or public and private spaces and to view both live and time so this happening in that place and at that time or passed through-IP communication protocol. He explained from the most basic to the most complex-IP video surveillance system, also explain its implementation into practice through multiple interconnections that these entail. Arriving at this point, we face the following issues which gave rise to this PFC. These IP-video surveillance systems, captured images through IP-cameras, providing both ease of viewing / recording, as a control, since it is not necessary to be present and interacting with other digital systems such diverse today, thanks IP-protocol. These systems-IP, have their implementation through the facilities required, these can be simple or very complex all-IP video surveillance systems. Due to the large increase in mass, current technologies of different kinds of IP cameras for video surveillance in public places, and private in our society, it makes a particularly invasive and therefore attendance is necessary both conditions that legitimize data processing of identifiable people, as the definition of the principles and safeguards to be applied as these will impact on the rights of the people, which forced to set certain guarantees. We face those cases in which the uptake and / or image processing video surveillance purposes belonging to identified or identifiable, has forced Spain, and as required by Directive 95/46/EC of the European Parliament, to regularize this situation by the Organic Law on Data Protection (LOPD) 15/1999 of December 13, under the procedures of the Spanish State in sociopolitical, and giving effect to this Act, with the approval of the Instruction 1/2006 of 8 November 2006, the governing body is the Spanish Agency for Data Protection (AGPD). Once raised the motivation and justification for the project, resulting in meeting targets to achieve the same. Project objectives can be differentiated into two main classes, the main objectives and secondary objectives: The main objectives of this PFC, born directly from requirements originally raised for capturing both technologically imaging me and try to describe where sociopolitically, the details and criteria as case studies and should be applied according to the instruction 1 / 2006 by the LOPD on video surveillance system in terms of data protection that could impact on the right people. Moreover the secondary objectives are the extension of the primary and are of a quantifier in this PFC, giving a fuller explanation of the main objective.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La proliferación en todo el mundo de las soluciones basadas en la nube hace que las empresas estén valorando mover su infraestructura o parte de ella a la nube, para así reducir los altos costes de inversión necesarios para mantener una infraestructura privada. Uno de los servicios que puede ser centralizado en la nube, mediante recursos compartidos entre varios clientes, son las soluciones de contingencia, como los servicios de protección de datos o los centros de recuperación ante desastres. Mediante este proyecto se pretende llevar a cabo el despliegue de una plataforma de servicios gestionados para ofrecer soluciones centralizadas, a clientes que lo requieran, de copias de seguridad y disaster recovery. Para la realización del proyecto se realizó un estudio de las tecnologías actuales para llevar a cabo la continuidad de negocio, los distintos tipos de backups, así como los tipos de replicación existente, local y remota. Posteriormente, se llevó a cabo un estudio de mercado para barajar las distintas posibilidades existentes para el despliegue de la infraestructura, siempre teniendo en cuenta el cliente objetivo. Finalmente, se realizó la fase de desarrollo, donde se detallan los componentes principales que componen la solución final, la localización de la infraestructura, un caso de uso, así como las principales ventajas de la solución. Se ha de destacar que se trata de un proyecto real, que se llevó a cabo en una empresa externa a la facultad, Omega Peripherals, donde una vez finalizado mi prácticum, se propuso dicho proyecto para desarrollarlo como continuación de mi labor en la empresa y formar parte de mi Trabajo Final de Grado (TFG). ---ABSTRACT---The worldwide proliferation of cloud-based solutions means that companies are evaluating their infrastructure or move part of it to the cloud, to reduce the high investment costs required to maintain a private infrastructure. One of the services that can be centralized in the cloud, through shared resources between multiple clients, are the solutions of contingency services as data protection or disaster recovery centers. This project aims to carry out the deployment of a managed services platform centralized solutions, to customers who need it, backup and disaster recovery services. The project consists of three phases. First, It was performed a study of the current business continuity technologies, the different types of backups, as well as replication types, local and remote. Second, it was performed a market study to shuffle the different possibilities for the deployment of infrastructure, keeping in mind the target customer. Finally, we found the development phase, where it details the main components that make up the final solution, the location of infrastructure, a use case, as well as the main advantages of the solution. It should be emphasized that this is a real project, which was carried out in an outside company to the university, called Omega Peripherals, where once I completed my practicum, it was proposed this project to develop it as a continuation of my job and develop it as my final dissertation.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Recientemente, el paradigma de la computación en la nube ha recibido mucho interés por parte tanto de la industria como del mundo académico. Las infraestructuras cloud públicas están posibilitando nuevos modelos de negocio y ayudando a reducir costes. Sin embargo, una compañía podría desear ubicar sus datos y servicios en sus propias instalaciones, o tener que atenerse a leyes de protección de datos. Estas circunstancias hacen a las infraestructuras cloud privadas ciertamente deseables, ya sea para complementar a las públicas o para sustituirlas por completo. Por desgracia, las carencias en materia de estándares han impedido que las soluciones para la gestión de infraestructuras privadas se hayan desarrollado adecuadamente. Además, la multitud de opciones disponibles ha creado en los clientes el miedo a depender de una tecnología concreta (technology lock-in). Una de las causas de este problema es la falta de alineación entre la investigación académica y los productos comerciales, ya que aquella está centrada en el estudio de escenarios idealizados sin correspondencia con el mundo real, mientras que éstos consisten en soluciones desarrolladas sin tener en cuenta cómo van a encajar con los estándares más comunes o sin preocuparse de hacer públicos sus resultados. Con objeto de resolver este problema, propongo un sistema de gestión modular para infraestructuras cloud privadas enfocado en tratar con las aplicaciones en lugar de centrarse únicamente en los recursos hardware. Este sistema de gestión sigue el paradigma de la computación autónoma y está diseñado en torno a un modelo de información sencillo, desarrollado para ser compatible con los estándares más comunes. Este modelo divide el entorno en dos vistas, que sirven para separar aquello que debe preocupar a cada actor involucrado del resto de información, pero al mismo tiempo permitiendo relacionar el entorno físico con las máquinas virtuales que se despliegan encima de él. En dicho modelo, las aplicaciones cloud están divididas en tres tipos genéricos (Servicios, Trabajos de Big Data y Reservas de Instancias), para que así el sistema de gestión pueda sacar partido de las características propias de cada tipo. El modelo de información está complementado por un conjunto de acciones de gestión atómicas, reversibles e independientes, que determinan las operaciones que se pueden llevar a cabo sobre el entorno y que es usado para hacer posible la escalabilidad en el entorno. También describo un motor de gestión encargado de, a partir del estado del entorno y usando el ya mencionado conjunto de acciones, la colocación de recursos. Está dividido en dos niveles: la capa de Gestores de Aplicación, encargada de tratar sólo con las aplicaciones; y la capa del Gestor de Infraestructura, responsable de los recursos físicos. Dicho motor de gestión obedece un ciclo de vida con dos fases, para así modelar mejor el comportamiento de una infraestructura real. El problema de la colocación de recursos es atacado durante una de las fases (la de consolidación) por un resolutor de programación entera, y durante la otra (la online) por un heurístico hecho ex-profeso. Varias pruebas han demostrado que este acercamiento combinado es superior a otras estrategias. Para terminar, el sistema de gestión está acoplado a arquitecturas de monitorización y de actuadores. Aquella estando encargada de recolectar información del entorno, y ésta siendo modular en su diseño y capaz de conectarse con varias tecnologías y ofrecer varios modos de acceso. ABSTRACT The cloud computing paradigm has raised in popularity within the industry and the academia. Public cloud infrastructures are enabling new business models and helping to reduce costs. However, the desire to host company’s data and services on premises, and the need to abide to data protection laws, make private cloud infrastructures desirable, either to complement or even fully substitute public oferings. Unfortunately, a lack of standardization has precluded private infrastructure management solutions to be developed to a certain level, and a myriad of diferent options have induced the fear of lock-in in customers. One of the causes of this problem is the misalignment between academic research and industry ofering, with the former focusing in studying idealized scenarios dissimilar from real-world situations, and the latter developing solutions without taking care about how they f t with common standards, or even not disseminating their results. With the aim to solve this problem I propose a modular management system for private cloud infrastructures that is focused on the applications instead of just the hardware resources. This management system follows the autonomic system paradigm, and is designed around a simple information model developed to be compatible with common standards. This model splits the environment in two views that serve to separate the concerns of the stakeholders while at the same time enabling the traceability between the physical environment and the virtual machines deployed onto it. In it, cloud applications are classifed in three broad types (Services, Big Data Jobs and Instance Reservations), in order for the management system to take advantage of each type’s features. The information model is paired with a set of atomic, reversible and independent management actions which determine the operations that can be performed over the environment and is used to realize the cloud environment’s scalability. From the environment’s state and using the aforementioned set of actions, I also describe a management engine tasked with the resource placement. It is divided in two tiers: the Application Managers layer, concerned just with applications; and the Infrastructure Manager layer, responsible of the actual physical resources. This management engine follows a lifecycle with two phases, to better model the behavior of a real infrastructure. The placement problem is tackled during one phase (consolidation) by using an integer programming solver, and during the other (online) with a custom heuristic. Tests have demonstrated that this combined approach is superior to other strategies. Finally, the management system is paired with monitoring and actuators architectures. The former able to collect the necessary information from the environment, and the later modular in design and capable of interfacing with several technologies and ofering several access interfaces.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El extraordinario auge de las nuevas tecnologías de la información, el desarrollo de la Internet de las Cosas, el comercio electrónico, las redes sociales, la telefonía móvil y la computación y almacenamiento en la nube, han proporcionado grandes beneficios en todos los ámbitos de la sociedad. Junto a éstos, se presentan nuevos retos para la protección y privacidad de la información y su contenido, como la suplantación de personalidad y la pérdida de la confidencialidad e integridad de los documentos o las comunicaciones electrónicas. Este hecho puede verse agravado por la falta de una frontera clara que delimite el mundo personal del mundo laboral en cuanto al acceso de la información. En todos estos campos de la actividad personal y laboral, la Criptografía ha jugado un papel fundamental aportando las herramientas necesarias para garantizar la confidencialidad, integridad y disponibilidad tanto de la privacidad de los datos personales como de la información. Por otro lado, la Biometría ha propuesto y ofrecido diferentes técnicas con el fin de garantizar la autentificación de individuos a través del uso de determinadas características personales como las huellas dáctilares, el iris, la geometría de la mano, la voz, la forma de caminar, etc. Cada una de estas dos ciencias, Criptografía y Biometría, aportan soluciones a campos específicos de la protección de datos y autentificación de usuarios, que se verían enormemente potenciados si determinadas características de ambas ciencias se unieran con vistas a objetivos comunes. Por ello es imperativo intensificar la investigación en estos ámbitos combinando los algoritmos y primitivas matemáticas de la Criptografía con la Biometría para dar respuesta a la demanda creciente de nuevas soluciones más técnicas, seguras y fáciles de usar que potencien de modo simultáneo la protección de datos y la identificacíón de usuarios. En esta combinación el concepto de biometría cancelable ha supuesto una piedra angular en el proceso de autentificación e identificación de usuarios al proporcionar propiedades de revocación y cancelación a los ragos biométricos. La contribución de esta tesis se basa en el principal aspecto de la Biometría, es decir, la autentificación segura y eficiente de usuarios a través de sus rasgos biométricos, utilizando tres aproximaciones distintas: 1. Diseño de un esquema criptobiométrico borroso que implemente los principios de la biometría cancelable para identificar usuarios lidiando con los problemas acaecidos de la variabilidad intra e inter-usuarios. 2. Diseño de una nueva función hash que preserva la similitud (SPHF por sus siglas en inglés). Actualmente estas funciones se usan en el campo del análisis forense digital con el objetivo de buscar similitudes en el contenido de archivos distintos pero similares de modo que se pueda precisar hasta qué punto estos archivos pudieran ser considerados iguales. La función definida en este trabajo de investigación, además de mejorar los resultados de las principales funciones desarrolladas hasta el momento, intenta extender su uso a la comparación entre patrones de iris. 3. Desarrollando un nuevo mecanismo de comparación de patrones de iris que considera tales patrones como si fueran señales para compararlos posteriormente utilizando la transformada de Walsh-Hadarmard. Los resultados obtenidos son excelentes teniendo en cuenta los requerimientos de seguridad y privacidad mencionados anteriormente. Cada uno de los tres esquemas diseñados han sido implementados para poder realizar experimentos y probar su eficacia operativa en escenarios que simulan situaciones reales: El esquema criptobiométrico borroso y la función SPHF han sido implementados en lenguaje Java mientras que el proceso basado en la transformada de Walsh-Hadamard en Matlab. En los experimentos se ha utilizado una base de datos de imágenes de iris (CASIA) para simular una población de usuarios del sistema. En el caso particular de la función de SPHF, además se han realizado experimentos para comprobar su utilidad en el campo de análisis forense comparando archivos e imágenes con contenido similar y distinto. En este sentido, para cada uno de los esquemas se han calculado los ratios de falso negativo y falso positivo. ABSTRACT The extraordinary increase of new information technologies, the development of Internet of Things, the electronic commerce, the social networks, mobile or smart telephony and cloud computing and storage, have provided great benefits in all areas of society. Besides this fact, there are new challenges for the protection and privacy of information and its content, such as the loss of confidentiality and integrity of electronic documents and communications. This is exarcebated by the lack of a clear boundary between the personal world and the business world as their differences are becoming narrower. In both worlds, i.e the personal and the business one, Cryptography has played a key role by providing the necessary tools to ensure the confidentiality, integrity and availability both of the privacy of the personal data and information. On the other hand, Biometrics has offered and proposed different techniques with the aim to assure the authentication of individuals through their biometric traits, such as fingerprints, iris, hand geometry, voice, gait, etc. Each of these sciences, Cryptography and Biometrics, provides tools to specific problems of the data protection and user authentication, which would be widely strengthen if determined characteristics of both sciences would be combined in order to achieve common objectives. Therefore, it is imperative to intensify the research in this area by combining the basics mathematical algorithms and primitives of Cryptography with Biometrics to meet the growing demand for more secure and usability techniques which would improve the data protection and the user authentication. In this combination, the use of cancelable biometrics makes a cornerstone in the user authentication and identification process since it provides revocable or cancelation properties to the biometric traits. The contributions in this thesis involve the main aspect of Biometrics, i.e. the secure and efficient authentication of users through their biometric templates, considered from three different approaches. The first one is designing a fuzzy crypto-biometric scheme using the cancelable biometric principles to take advantage of the fuzziness of the biometric templates at the same time that it deals with the intra- and inter-user variability among users without compromising the biometric templates extracted from the legitimate users. The second one is designing a new Similarity Preserving Hash Function (SPHF), currently widely used in the Digital Forensics field to find similarities among different files to calculate their similarity level. The function designed in this research work, besides the fact of improving the results of the two main functions of this field currently in place, it tries to expand its use to the iris template comparison. Finally, the last approach of this thesis is developing a new mechanism of handling the iris templates, considering them as signals, to use the Walsh-Hadamard transform (complemented with three other algorithms) to compare them. The results obtained are excellent taking into account the security and privacy requirements mentioned previously. Every one of the three schemes designed have been implemented to test their operational efficacy in situations that simulate real scenarios: The fuzzy crypto-biometric scheme and the SPHF have been implemented in Java language, while the process based on the Walsh-Hadamard transform in Matlab. The experiments have been performed using a database of iris templates (CASIA-IrisV2) to simulate a user population. The case of the new SPHF designed is special since previous to be applied i to the Biometrics field, it has been also tested to determine its applicability in the Digital Forensic field comparing similar and dissimilar files and images. The ratios of efficiency and effectiveness regarding user authentication, i.e. False Non Match and False Match Rate, for the schemes designed have been calculated with different parameters and cases to analyse their behaviour.